JPH06237413A - Video processor - Google Patents

Video processor

Info

Publication number
JPH06237413A
JPH06237413A JP5257893A JP25789393A JPH06237413A JP H06237413 A JPH06237413 A JP H06237413A JP 5257893 A JP5257893 A JP 5257893A JP 25789393 A JP25789393 A JP 25789393A JP H06237413 A JPH06237413 A JP H06237413A
Authority
JP
Japan
Prior art keywords
distortion
image
correction
area
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5257893A
Other languages
Japanese (ja)
Other versions
JP3260929B2 (en
Inventor
Masaomi Tomizawa
将臣 冨澤
Masaru Kawase
大 川瀬
Hiroyuki Watabe
洋之 渡部
Daikichi Morohashi
大吉 師橋
Atsushi Inoue
淳 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP25789393A priority Critical patent/JP3260929B2/en
Publication of JPH06237413A publication Critical patent/JPH06237413A/en
Application granted granted Critical
Publication of JP3260929B2 publication Critical patent/JP3260929B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To attain proper focus adjustment by applying coefficient correction corresponding to distortion of an image to a weighting coefficient set to each of plural areas in a screen so as to obtain accurate focus information from the plural areas. CONSTITUTION:When coefficient correction is applied to a weighting coefficient set to each of plural areas of a screen in response to distortion of an image, a microcomputer 11 reads zoom position information from a zoom encoder 1 to encode a distortion correction quantity. Then a correction coefficient for a weighting value of each area is read from table data of distortion/correction codes and multiplied with data stored in the microcomputer 11 to correct the weighting value. Then an area integration device 18 applies area integration to control reference parameter and the resulting data are fed to the microcomputer 11. Then the corrected weighting data are referenced, the integration data of each area are subjected to weight processing and new control data are calculated and outputted. Thus, accurate focusing information corresponding to optical distortion is obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は映像処理装置に関し、特
に電子ズーム機能、手ぶれ補正機能及び光学レンズ等の
光学歪みの補正機能を有する映像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device, and more particularly to an image processing device having an electronic zoom function, a camera shake correction function, and a function for correcting optical distortion such as an optical lens.

【0002】[0002]

【従来の技術】光学レンズには収差があるため、光学レ
ンズを介して撮像素子に結像される被写体光学像には光
学歪みが発生してしまい、その結果、映像信号も歪みを
もつ画像となってしまう。光学歪みとしては、図20
(A)に示すような「糸まき型歪み」や図20(B)に
示すような「たる型歪み」がある。これら歪みは、図2
0において、本来点線で示される位置にあるべき画像情
報が実線位置に結像するような歪みである。
2. Description of the Related Art Since an optical lens has an aberration, an optical distortion occurs in an optical image of a subject formed on an image pickup element through the optical lens, and as a result, a video signal is also distorted. turn into. The optical distortion is shown in FIG.
There is a "thread winding type distortion" as shown in (A) and a "barrel type distortion" as shown in FIG. 20 (B). These distortions are
At 0, the distortion is such that the image information originally supposed to be at the position indicated by the dotted line is imaged at the solid line position.

【0003】このような光学歪みを伴う映像信号の歪み
を補正する補正処理としては、映像信号をデジタル信号
に変換して画像メモリに書き込み、歪みに応じて読み出
しアドレスをずらして読み出すことにより画像メモリ上
で光学歪みを補正する処理がある。
As a correction process for correcting the distortion of a video signal accompanied by such optical distortion, the video signal is converted into a digital signal and written in an image memory, and a read address is shifted according to the distortion to read out the image memory. There is a process for correcting the optical distortion above.

【0004】例えば、図21において、光学レンズによ
る歪みがなければ、画像メモリに点線のように記憶され
るべき格子状の画像が光学歪みにより実線のように記憶
されているとする。この画像データを画像メモリから読
み出すとき、A点を読み出すべきタイミングにa点に記
憶されている画像データを、B点を読み出すべきタイミ
ングにb点に記憶されている画像データを、同様にC点
を読み出すべきタイミングにc点に記憶されている画像
データを読み出す。こうすることにより実線で示す歪ん
だ画像は、点線で示す歪みのない元の格子状の画像とし
て読み出され、光学歪みが補正される。
For example, in FIG. 21, if there is no distortion due to the optical lens, it is assumed that the lattice-shaped image to be stored in the image memory as shown by the dotted line is stored as shown by the solid line due to the optical distortion. When this image data is read from the image memory, the image data stored at the point a at the timing of reading the point A, the image data stored at the point b at the timing of reading the point B, the same as the point C. The image data stored at the point c is read at the timing at which is to be read. By doing so, the distorted image shown by the solid line is read as the original image without distortion shown by the dotted line, and the optical distortion is corrected.

【0005】図22には、この種の補正機能を有する従
来の映像処理装置の構成例ブロック図が示されている。
光学レンズ等の光学系1を介して被写体像がCCD等の
撮像素子2に結像される。この撮像素子2に結像されて
いる画像は、上記光学歪みを含んでおり、撮像素子2で
電気信号に変換される。撮像素子2からの信号は、撮像
プロセス回路3で所定の処理が施されて映像信号として
A/Dコンバータ4に供給される。A/Dコンバータ4
でデジタル信号に変換された映像信号は、画像メモリ5
に記憶される。画像メモリ5への信号の書き込み及び読
み出しタイミングは、ライトコントロール回路10とリ
ードコントロール回路12Aによって制御される。SS
G回路9は、当該装置動作の基準タイミング信号を発生
し、TG回路8、撮像プロセス回路3及びライトコント
ロール回路10に供給する。TG回路8は、SSG回路
9からの水平(H)方向、垂直(V)方向の読み出しタ
イミング信号を撮像素子2に送出する。ライトコントロ
ール回路10は、A/Dコンバータ4からの映像信号の
画像メモリ5への書き込みタイミングを制御する。
FIG. 22 is a block diagram showing an example of the configuration of a conventional video processing device having this type of correction function.
A subject image is formed on an image sensor 2 such as a CCD via an optical system 1 such as an optical lens. The image formed on the image sensor 2 contains the optical distortion and is converted into an electric signal by the image sensor 2. The signal from the image pickup device 2 is subjected to a predetermined process in the image pickup process circuit 3 and supplied to the A / D converter 4 as a video signal. A / D converter 4
The video signal converted into a digital signal by the image memory 5
Memorized in. The timing of writing and reading signals to and from the image memory 5 is controlled by the write control circuit 10 and the read control circuit 12A. SS
The G circuit 9 generates a reference timing signal for the operation of the device and supplies it to the TG circuit 8, the imaging process circuit 3 and the write control circuit 10. The TG circuit 8 sends the read timing signals from the SSG circuit 9 in the horizontal (H) direction and the vertical (V) direction to the image sensor 2. The write control circuit 10 controls the timing of writing the video signal from the A / D converter 4 into the image memory 5.

【0006】マイコン11は、光学系1からのズーム情
報等の信号を受け、補正量ROM19に格納されている
補正量データに基づいて上述光学歪みを補正すべくリー
ドコントロール回路12Aを制御する。補正量ROM1
9には、レンズの使用条件毎に、画面の各部について予
め定まる補正量、例えば図20の実線位置と点線位置と
の関係で定まる補正量が格納されている。こうして、リ
ードコントロール回路12Aから出力されるリード信号
により、光学歪みを補正すべく画像メモリ5から読み出
された信号は、補間回路6で補間処理された後、D/A
コンバータ7によりアナログ信号に変換されて出力され
る。かかる光学歪み補正機能をもつ映像処理装置は、特
開平4ー61570号公報に開示されている。
The microcomputer 11 receives signals such as zoom information from the optical system 1 and controls the read control circuit 12A to correct the above optical distortion based on the correction amount data stored in the correction amount ROM 19. Correction amount ROM1
9 stores a correction amount that is predetermined for each part of the screen for each lens usage condition, for example, a correction amount that is determined by the relationship between the solid line position and the dotted line position in FIG. Thus, the signal read from the image memory 5 to correct the optical distortion by the read signal output from the read control circuit 12A is interpolated by the interpolating circuit 6 and then D / A.
It is converted into an analog signal by the converter 7 and output. An image processing device having such an optical distortion correction function is disclosed in Japanese Patent Application Laid-Open No. 4-61570.

【0007】[0007]

【発明が解決しようとする課題】上述のように従来の映
像処理装置は、光学歪みをもつ映像信号を画像メモリに
記憶し、予め光学歪みに応じた各画素毎の補正量をRO
Mに格納しておき、光学歪みに応じてROMから読み出
された補正量に基づいた読み出しアドレスにより光学歪
みを補正している。
As described above, the conventional image processing apparatus stores the image signal having optical distortion in the image memory, and sets the correction amount for each pixel according to the optical distortion in advance.
It is stored in M and the optical distortion is corrected by the read address based on the correction amount read from the ROM according to the optical distortion.

【0008】しかしながら、従来の映像処理装置では、
光学系歪み補正を行った映像情報に依拠して像の尖鋭度
に係る合焦情報を得て、自動合焦制御(AF)を行うに
ついて、上記歪みの程度の如何に基づいては特段の処置
がとられていなかった。このため、必ずしも正確な合焦
情報に基づく合焦調節がなされ得なかった。
However, in the conventional image processing apparatus,
Regarding the focus information relating to the sharpness of the image based on the image information that has been subjected to the optical system distortion correction and performing the automatic focusing control (AF), a special treatment is performed based on the degree of the above distortion. Was not taken. For this reason, focus adjustment cannot always be made based on accurate focus information.

【0009】本発明は、上記の問題点に鑑み、光学歪み
の程度を考慮して正確な合焦情報を得、この情報に基づ
いて適正な合焦調節を行うことのできるこの種の映像処
理装置を提供するものである。
In view of the above problems, the present invention obtains accurate focus information in consideration of the degree of optical distortion, and based on this information, appropriate focus adjustment can be performed for this type of image processing. A device is provided.

【0010】[0010]

【課題を解決するための手段】前述の課題を解決するた
め、本発明による映像処理装置は、光学系による像を光
電変換して得た映像信号をこの映像信号に対応する映像
データに変換する変換手段と、上記変換手段による映像
データを当該記憶手段に書き込み又は読み出しするに際
して該映像データに上記光学系による像の歪みに対応し
た補正を与える歪み補正手段と、上記映像信号に係る画
面内の複数の領域毎に設定された重み付け係数を適用し
てこれら複数の領域から像の尖鋭度に係る合焦情報を得
るにつき該重み付け係数に上記像の歪みに対応した程度
の係数補正を加味するようになされた合焦情報調整検出
手段と、を備えて構成される。
In order to solve the above-mentioned problems, a video processing apparatus according to the present invention converts a video signal obtained by photoelectrically converting an image by an optical system into video data corresponding to this video signal. Conversion means, distortion correction means for applying correction corresponding to image distortion caused by the optical system to the video data when writing or reading the video data by the conversion means, and When the weighting coefficient set for each of the plurality of areas is applied to obtain the focus information related to the sharpness of the image from the plurality of areas, the weighting coefficient is added with a coefficient correction corresponding to the distortion of the image. And a focusing information adjustment detecting means.

【0011】[0011]

【作用】本発明では、画面内の複数の領域毎に設定され
た重み付け係数に像の歪みに対応した程度の係数補正を
加味して、これら複数の領域から正確な合焦情報情報を
得る。
In the present invention, the weighting coefficient set for each of a plurality of areas in the screen is added with the coefficient correction to the extent corresponding to the distortion of the image, and accurate focus information information is obtained from the plurality of areas.

【0012】[0012]

【実施例】次に、本発明の実施例について図面を参照し
ながら説明する。図1は、電子ズーム機能と光学歪み補
正機能を行う処理回路を兼用する例の構成ブロック図を
示す。図1において、図22と同一符号が付されている
構成部は同様機能をもつ構成部である。図1において、
マイコン11は、指定された電子ズーム倍率を受け、該
ズーム情報を光学系1に送出して光学ズーム制御を行う
とともに、該ズーム情報を示すズーム係数Sと、ズーム
倍率に対応するHアドレスピッチと、Vアドレスピッチ
をリードコントロール回路12に送出する。リードコン
トロール回路12では、これらの情報に基づいて電子ズ
ーム処理を行うとともに光学歪みの補正処理を行うため
の信号を画像メモリ5と補間回路6に送出する。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 shows a configuration block diagram of an example in which a processing circuit that performs an electronic zoom function and an optical distortion correction function is also used. In FIG. 1, components designated by the same reference numerals as those in FIG. 22 are components having the same function. In FIG.
The microcomputer 11 receives the designated electronic zoom magnification and sends the zoom information to the optical system 1 to perform optical zoom control, and at the same time, a zoom coefficient S indicating the zoom information and an H address pitch corresponding to the zoom magnification. , V address pitch is sent to the read control circuit 12. The read control circuit 12 sends signals to the image memory 5 and the interpolation circuit 6 for performing electronic zoom processing and optical distortion correction processing based on these pieces of information.

【0013】図2(A)には、ズームレンズにおける光
軸からの相対距離(%)と歪み率D(%)との関係につ
いての光学歪特性の一例が示されている。ここで、横軸
は、撮像素子の有効面の対角線の2分の1の長さを10
0%としたときの光軸位置からの相対距離を示し、縦軸
は歪み率Dを示す。ここで、歪み率Dの定義を、相対距
離r離れた点に結像すべき像が光学歪みによりr’に結
像したとき、図2(B)に示すように、 D=(r’−r)/r×100 % (1) とする。焦点距離fにより特性が変動するが、rが大き
くなるほど歪み率Dも大きくなり、この特性は、例えば D=s’’・r2 (2) で近似でき、式(1)、(2)から r’=r(1+s’・r2 ) (3) となる。ここで、s’’及びs’は焦点距離によって決
定する係数であり、 s’=s’’/100 とする。つまり、式(3)により、撮像素子上の光軸か
ら相対距離r離れた点に結像すべき像が光学歪みにより
rの(1+s’・r2 )倍離れた点に結像していると導
ける。
FIG. 2A shows an example of the optical distortion characteristics of the relationship between the relative distance (%) from the optical axis and the distortion rate D (%) in the zoom lens. Here, the abscissa represents the half length of the diagonal line of the effective surface of the image sensor to 10
The relative distance from the optical axis position when 0% is shown, and the vertical axis shows the strain rate D. Here, the definition of the distortion rate D is as follows. When an image to be formed at a point distant from the relative distance r is formed at r ′ due to optical distortion, as shown in FIG. 2B, D = (r′− r) / r × 100% (1) Although the characteristic varies depending on the focal length f, the distortion rate D increases as r increases, and this characteristic can be approximated by, for example, D = s ″ · r 2 (2), and from Equations (1) and (2) r ′ = r (1 + s ′ · r 2 ) (3). Here, s ″ and s ′ are coefficients determined by the focal length, and s ′ = s ″ / 100. That is, according to the equation (3), an image to be formed at a point distant from the optical axis on the image sensor by a relative distance r is imaged at a point distant by (1 + s ′ · r 2 ) times r due to optical distortion. Can lead.

【0014】撮像素子上の光軸から相対距離r離れた点
Pをメモリ上で考えると、図3(A),(B)に示すよ
うに、例えばNTSC信号の場合、撮像素子の縦横の比
はおよそ3:4であり、映像信号を240×768のフ
ィールドメモリに記憶する場合を考える。撮像素子上で
の相対距離rは、メモリ上では例えば水平方向でR画素
だとすると、垂直方向ではR/2.4画素となり、水平
方向と垂直方向とでは異なった画素数で表されてしま
う。そこで、垂直方向の画素数に、この例であれば2.
4といった換算係数kを乗じ、水平方向、垂直方向とも
に撮像素子上の相対距離rをメモリ上ではR画素といっ
たように、撮像素子上の距離をメモリの画素数に換算で
きるようにする。
Considering the point P on the memory, which is a relative distance r from the optical axis on the image pickup device, as shown in FIGS. 3A and 3B, for example, in the case of an NTSC signal, the aspect ratio of the image pickup device is increased. Is about 3: 4, and the case where a video signal is stored in a 240 × 768 field memory will be considered. The relative distance r on the image pickup device is R / 2.4 pixels in the vertical direction, assuming that there are R pixels in the horizontal direction in the memory, and is represented by different numbers of pixels in the horizontal and vertical directions. Therefore, the number of pixels in the vertical direction is 2.
By multiplying by a conversion coefficient k such as 4, the relative distance r on the image sensor in both the horizontal and vertical directions can be converted to the number of pixels in the memory, such as R pixels on the memory.

【0015】ここで、図4に示すように、撮像素子上の
光軸から相対距離r離れた点Pに結像すべき点が光学歪
により相対距離r’の点P’に結像している場合を考え
る。点Pについては撮像素子上の光軸にあたるメモリの
中心座標から水平方向にx画素、垂直方向にはy画素の
位置、点P’については水平方向にx’画素、垂直方向
にはy’画素の位置としたときのメモリ上でのP,P’
の位置関係を求める。
Here, as shown in FIG. 4, a point to be imaged at a point P distant from the optical axis on the image pickup element by a relative distance r is imaged at a point P ′ at a relative distance r ′ due to optical distortion. Consider the case. For point P, the position of x pixels in the horizontal direction and y pixels in the vertical direction from the center coordinates of the memory corresponding to the optical axis on the image sensor, and for the point P ', x'pixels in the horizontal direction and y'pixels in the vertical direction. P, P'on the memory at the position of
Find the positional relationship of.

【0016】式(3)から点P’は、点Pより(1+
s’・r2 )倍、中心座標から離れていると考えられ
る。ここで、rをメモリ上の大きさで表すと r=c×{x2 +(ky)2 } (4) で表せる。cは撮像素子の大きさとメモリの画素数で決
定する定数である。また、点P’が点Pより中心座標か
ら(1+s’・r2 )倍離れているということは、それ
ぞれの水平、垂直方向の距離も(1+s’・r2 )倍離
れているということなので x’=x(1+s’・r2 ) (5) y’=y(1+s’・r2 ) (6) となる。式(4)、(5)、(6)から x’=x[1+s’・c2 {x2 +(ky)2 }] (7’) y’=y[1+s’・c2 {x2 +(ky)2 }] (8’) ここで、s’c2 を定数Sとまとめれば x’=x[1+S{x2 +(ky)2 }] (7) y’=y[1+S{x2 +(ky)2 }] (8) となる。また、Sは焦点距離によって定まる係数とな
る。
From the equation (3), the point P ′ is (1+
It is considered to be s ′ · r 2 ) times away from the center coordinate. Here, r can be expressed as r = c × {x 2 + (ky) 2 } (4) when expressed by the size on the memory. c is a constant determined by the size of the image sensor and the number of pixels in the memory. Also, the fact that the point P ′ is (1 + s ′ · r 2 ) times away from the center coordinates from the point P means that the distances in the horizontal and vertical directions are also (1 + s ′ · r 2 ) times away. x ′ = x (1 + s ′ · r 2 ) (5) y ′ = y (1 + s ′ · r 2 ) (6) Equation (4), (5), from (6) x '= x [ 1 + s' · c 2 {x 2 + (ky) 2}] (7') y '= y [1 + s' · c 2 {x 2 + (Ky) 2 }] (8 ′) Here, if s′c 2 is put together with a constant S, x ′ = x [1 + S {x 2 + (ky) 2 }] (7) y ′ = y [1 + S { x 2 + (ky) 2 }] (8). Further, S is a coefficient determined by the focal length.

【0017】上記式から明らかなように、メモリの中心
座標から水平、垂直方向にx,y離れた画素P(x,
y)に記憶されるべき画像データは、光学歪みによりそ
れぞれx,yの{1+s(x2 +(ky)2 ))}倍の
x’,y’中心座標から離れた画素P’(x’,y’)
に記憶されていることを示している。よって前述(従来
例にて)説明した如く、画像データをメモリから読み出
すとき、P点を読み出すべきタイミングにP’点に記憶
されている画像データを読み出せば光学歪みが補正され
る。
As is clear from the above equation, the pixel P (x, y, which is separated horizontally and vertically from the center coordinates of the memory by x, y.
The image data to be stored in y) is pixel P ′ (x ′) distant from the center coordinates of x ′ and y ′ times {1 + s (x 2 + (ky) 2 )} times x and y due to optical distortion. , Y ')
Is stored in. Therefore, as described above (in the conventional example), when the image data is read from the memory, the optical distortion is corrected by reading the image data stored at the point P ′ at the timing when the point P should be read.

【0018】上述において、撮像素子上の光軸からの距
離rをメモリの画素x,yで表すと3平方の定理によ
り、r=(x2 +y2 )といった平方根の演算が入る
が、本例では光学歪み特性を式(2)のようにD=
s’’・r2 と近似したので、平方根の演算と2乗の演
算が打ち消し合い演算回路の規模が減る。特に、平方根
の演算は回路規模を要するので効果は大きい。
In the above description, when the distance r from the optical axis on the image pickup device is represented by the pixels x and y of the memory, the square root calculation such as r = (x 2 + y 2 ) is entered by the theorem of 3 squares. Then, the optical distortion characteristic is given by D =
Since it is approximated by s ″ · r 2 , the square root calculation and the square calculation cancel each other, and the scale of the calculation circuit is reduced. In particular, the calculation of the square root requires a large circuit scale, so that it is very effective.

【0019】図5には、本例におけるリードコントロー
ル回路12の回路例が示されている。図5において、先
ず、電子ズーム処理を行うため、マイコン11からのH
アドレスピッチデータ(2倍ズームの場合は0.5)と
Vアドレスピッチデータ(2倍ズームの場合は0.5)
が、それぞれHアドレスピッチ発生回路1202とVア
ドレスピッチ発生回路1204に供給される。Hスター
トアドレス発生回路1201とVスタートアドレス発生
回路1203は、処理開始アドレスを発生するための回
路で、本例ではそれぞれ“0”をスタートアドレスとし
て発生し、これらアドレスは、ラッチ回路1205と1
207にラッチされる。Hスタートアドレス発生回路1
201、Hアドレスピッチ発生回路1202、Vスター
トアドレス発生回路1203、Vアドレスピッチ発生回
路1204は、モード選択信号によってモードが切り換
わる。Hアドレスピッチ発生回路1202とVアドレス
ピッチ発生回路1204から出力されるアドレスピッチ
は、ラッチ回路1206と1208にラッチされる。ラ
ッチ回路1205,1206,1207及び1208
は、垂直(V)同期パルスに応答して動作し、それぞれ
のラッチ回路から読み出されたデータは、選択回路12
09,加算器1211,選択回路1212,加算器12
14のそれぞれの一入力端子に供給される。加算器12
11と1214の出力は、それぞれ水平(H)同期パル
スとV同期パルスに応答してこの入力を切り換え出力す
る選択回路1209と1212の他入力端子に供給され
る。即ち、選択回路1209,1212は、スタート
時、ラッチ回路1205,1207からのデータを出力
し、次アドレスからは加算器1211,1214からの
データを切り換え出力する。選択回路1209と121
2の出力は、それぞれラッチ回路1210と1213で
ラッチされ、ラッチ出力はそれぞれクロックCLOCK
とH同期パルスに応答して加算器の他入力として供給さ
れるとともに、ズーム出力信号として出力される。かか
る構成は、特開平2ー250469に開示されている。
FIG. 5 shows a circuit example of the read control circuit 12 in this example. In FIG. 5, first, since the electronic zoom process is performed, the H
Address pitch data (0.5 for 2x zoom) and V address pitch data (0.5 for 2x zoom)
Are supplied to the H address pitch generating circuit 1202 and the V address pitch generating circuit 1204, respectively. The H start address generation circuit 1201 and the V start address generation circuit 1203 are circuits for generating a processing start address. In this example, “0” is generated as a start address, and these addresses are latch circuits 1205 and 1
Latched at 207. H start address generation circuit 1
The mode of 201, the H address pitch generation circuit 1202, the V start address generation circuit 1203, and the V address pitch generation circuit 1204 is switched by the mode selection signal. The address pitch output from the H address pitch generation circuit 1202 and the V address pitch generation circuit 1204 is latched by the latch circuits 1206 and 1208. Latch circuits 1205, 1206, 1207 and 1208
Operates in response to a vertical (V) synchronizing pulse, and the data read from each latch circuit is selected by the selection circuit 12.
09, adder 1211, selection circuit 1212, adder 12
Each of the 14 input terminals is supplied. Adder 12
The outputs of 11 and 1214 are supplied to the other input terminals of the selection circuits 1209 and 1212 which switch and output the inputs in response to the horizontal (H) synchronizing pulse and the V synchronizing pulse, respectively. That is, the selection circuits 1209 and 1212 output the data from the latch circuits 1205 and 1207 at the start, and switch and output the data from the adders 1211 and 1214 from the next address. Selection circuits 1209 and 121
The outputs of 2 are latched by the latch circuits 1210 and 1213, respectively, and the latch outputs are respectively clocked by CLOCK.
And is supplied as the other input of the adder in response to the H sync pulse and the zoom output signal. Such a structure is disclosed in JP-A-2-250469.

【0020】このような構成により、Hスタートアドレ
ス発生回路1201とVスタートアドレス発生回路12
03で設定されたスタートアドレスである原点(0,
0)からズーム倍率に応じて定まるピッチ単位のアドレ
スがラッチ回路1210と1213から出力される。こ
れらラッチ回路からは水平方向の読み出しタイミングア
ドレスと垂直方向の読み出しタイミングアドレスとして
発生される。画像メモリ5の読み出しタイミングは、テ
レビジョンの走査と同じで左上から右下に読み出す。座
標系を同図(A)のように設定すると、左上が原点
(0,0)、右下が(2x0 , 2y0 )で、中心が(x
0 , y0 )となる。
With such a configuration, the H start address generation circuit 1201 and the V start address generation circuit 12
The start address (0,
From 0), the address in pitch unit determined according to the zoom magnification is output from the latch circuits 1210 and 1213. These latch circuits generate the read timing address in the horizontal direction and the read timing address in the vertical direction. The reading timing of the image memory 5 is the same as that of the scanning of the television, and the reading is performed from the upper left to the lower right. When the coordinate system is set as shown in FIG. 9A, the origin is (0, 0) in the upper left, (2x 0 , 2y 0 ) in the lower right, and the center is (x
0 , y 0 ).

【0021】式(7),(8)は画像メモリ5の中心座
標を原点と考えているのに対し、ラッチ回路1210と
1213から供給される読み出しタイミングアドレス
は、同図(A)のように左上が原点となっている。した
がって、この供給されたアドレスが、中心座標アドレス
(x0 , y0 )からの距離情報となるように、原点移動
させる必要がある。原点移動ブロック回路Aは、かかる
原点移動を実行するもので、ラッチ回路1210と12
13からのアドレス値からそれぞれ中心座標アドレス値
0 , y0 をそれぞれ減じる減算回路1215と121
6から成る。この原点移動処理の結果、座標系は同図
(B)に示すような座標系となる。
In the equations (7) and (8), the center coordinates of the image memory 5 are considered as the origin, whereas the read timing addresses supplied from the latch circuits 1210 and 1213 are as shown in FIG. The upper left is the origin. Therefore, it is necessary to move the origin so that the supplied address becomes the distance information from the central coordinate address (x 0 , y 0 ). The origin movement block circuit A executes such origin movement, and includes the latch circuits 1210 and 12
Subtraction circuits 1215 and 121 for subtracting the center coordinate address values x 0 and y 0 from the address value from 13 respectively.
It consists of six. As a result of this origin movement processing, the coordinate system becomes a coordinate system as shown in FIG.

【0022】次に、距離演算ブロックBで、式(7)と
(8)における距離演算:x2 +(ky)2 を実行す
る。入力xは乗算器1217で二乗された後、加算器1
218に入力され、入力yは乗算器1219で変換係数
kと乗算された後、乗算器1220で二乗され、乗算器
1217と1220の出力は加算器1218で加算され
る。
Next, in the distance calculation block B, the distance calculation in equations (7) and (8): x 2 + (ky) 2 is executed. The input x is squared by the multiplier 1217 and then added by the adder 1
The input y is input to the multiplier 218, the input y is multiplied by the conversion coefficient k in the multiplier 1219, and then squared in the multiplier 1220. The outputs of the multipliers 1217 and 1220 are added in the adder 1218.

【0023】歪み倍率演算ブロックCは、式(7)と
(8)中の[1+s{x2 + (ky) 2 }]を演算する
回路で、乗算器1221により距離演算ブロックBから
供給される{x2 +(ky)2 }にマイコン11から供
給されるズームレンズの焦点距離によって定まる焦点距
離係数Sを乗じ、加算器1222において、該乗算出力
に“1”を加算して出力する。
The distortion magnification calculation block C has the following equation (7):
[1 + s {x in (8)2+ (Ky) 2}] Is calculated
In the circuit, from the distance calculation block B by the multiplier 1221
Supplied {x2+ (Ky)2} From the microcomputer 11
Focal length determined by the focal length of the zoom lens supplied
The separation coefficient S is multiplied, and the multiplication output is added in the adder 1222.
"1" is added to and output.

【0024】式(7)と(8)のx’とy’は、x’,
y’演算ブロックDの乗算器1223と1224により
求められる。乗算器1223と1224は、加算器12
22の出力に対して、減算器1215と1216から出
力されるxとyをそれぞれ乗算する。
X'and y'in the equations (7) and (8) are x ',
It is obtained by the multipliers 1223 and 1224 of the y ′ operation block D. The multipliers 1223 and 1224 are the adders 12
The output of 22 is multiplied by x and y output from the subtracters 1215 and 1216, respectively.

【0025】こうして求められたx’とy’は、同図
(B)に示すように中心を原点としたときのxy座標の
アドレスであり、前述のとおり、画像メモリ5の実際の
原点は左上であるので、原点移動ブロックEの加算器1
225と1226において、それぞれx’,y’中心座
標アドレス値を加算することにより座標を同図(C)に
示すように元に戻す。
The x'and y'obtained in this way are the addresses of the xy coordinates when the center is the origin, as shown in FIG. 7B, and as described above, the actual origin of the image memory 5 is the upper left. Therefore, the adder 1 of the origin movement block E is
At 225 and 1226, the coordinates are returned to their original positions by adding the x ', y'center coordinate address values, respectively, as shown in FIG.

【0026】以上のような処理を介して、画像メモリ5
の画像の歪みに応じた読み出しアドレスが発生され、こ
の読み出しアドレスで画像メモリ5を読み出せば、光学
歪みの補正された画像を得ることができる。
Through the above processing, the image memory 5
A read address corresponding to the distortion of the image is generated, and if the image memory 5 is read at this read address, an image with the optical distortion corrected can be obtained.

【0027】上述の説明における光学歪み特性は様々な
式で近似でき、より高次の項まで近似すればより高い精
度で近似することが可能である。尚、上記説明例におい
ては、メモリの読み出し制御により光学歪みを補正した
がメモリの書き込み制御によってこれを行ってもよいこ
とは勿論である。以上の例では、電子ズーム処理を施し
た後に、歪み補正を行う例を説明しているが、歪み補正
を行なってから電子ズームを行うようにも構成できるこ
とは勿論である。
The optical distortion characteristics in the above description can be approximated by various formulas, and can be approximated with higher accuracy by approximating higher order terms. In the above-described example, the optical distortion is corrected by the memory read control, but it goes without saying that the memory distortion may be corrected by the memory write control. In the above example, the example in which the distortion correction is performed after the electronic zoom process is performed has been described, but it goes without saying that the electronic zoom may be performed after the distortion correction is performed.

【0028】次に、手ぶれ補正処理部と光学歪み補正処
理部を兼用する例を図6と図7を参照して説明する。図
6と図7において、図1と同一符号が付されている回路
構成部は同様な回路部を示す。本例では、図6に示す如
く、手ぶれ補正量を検出するための例えば、角速度セン
サ等の動き検出器13が設けられ、得られた動き情報が
マイコン11に送出され、リードコントロール回路12
で以下に述べるような手ぶれ補正及び光学歪み補正処理
が施される。
Next, an example in which the camera shake correction processing section and the optical distortion correction processing section are used in common will be described with reference to FIGS. 6 and 7. 6 and 7, the circuit components designated by the same reference numerals as those in FIG. 1 are similar circuit components. In this example, as shown in FIG. 6, for example, a motion detector 13 such as an angular velocity sensor for detecting the amount of camera shake correction is provided, and the obtained motion information is sent to the microcomputer 11 to read the read control circuit 12.
Then, camera shake correction and optical distortion correction processing as described below are performed.

【0029】図7において、動き検出器13からの手ぶ
れの動き量に対応した水平方向の動き補正データ(H)
と垂直方向の動き補正データ(V)がHスタートアドレ
ス発生回路1201とVスタートアドレス発生回路12
03に入力され、スタートアドレスHSとVSがラッチ
回路1205と1207にラッチされる。Hアドレスピ
ッチ発生回路1202とVアドレスピッチ発生回路12
04は、手ぶれ発生時の規定領域からの画像のずれ(画
角切れ)を生ずることがないように若干画像をズームさ
せるためのもので、例えば、ピッチ情報HP,VPとし
て0.9の値が出力される。その結果、ラッチ回路12
10と1213から出力されるデータは、それぞれ、H
S,HS+HP,HS+2HP,…とVS,VS+V
P,VS+2VP,…となる。以後の処理は図5と同様
であり、手ぶれ補正と光学歪み補正処理が同時に行われ
ることになる。
In FIG. 7, horizontal motion correction data (H) corresponding to the amount of camera shake from the motion detector 13
And vertical motion correction data (V) are H start address generation circuit 1201 and V start address generation circuit 12
03, the start addresses HS and VS are latched by the latch circuits 1205 and 1207. H address pitch generation circuit 1202 and V address pitch generation circuit 12
Reference numeral 04 is for slightly zooming the image so as not to cause a displacement (angle of view cut) of the image from the prescribed region when a camera shake occurs. For example, a value of 0.9 is set as the pitch information HP and VP. Is output. As a result, the latch circuit 12
The data output from 10 and 1213 are H
S, HS + HP, HS + 2HP, ... and VS, VS + V
P, VS + 2VP, ... The subsequent processing is the same as in FIG. 5, and the camera shake correction and the optical distortion correction processing are performed at the same time.

【0030】以上のように、上述例では、リードコント
ロール回路12以外は全て共通の回路であるが、リード
コントロール回路内では手ぶれ補正または電子ズーム処
理と光学歪補正処理のアドレス発生回路部は独立してい
るので、一方の機能が不要な場合には、どちらか一方の
みを機能させることができる。したがって、省電力化を
図ることもできる。本例によれば、安価で小型化が容易
な映像処理装置が得られる。
As described above, in the above-described example, all circuits are common except for the read control circuit 12, but in the read control circuit, the address generation circuit section for camera shake correction or electronic zoom processing and optical distortion correction processing is independent. Therefore, when one of the functions is unnecessary, only one of them can be operated. Therefore, power saving can be achieved. According to this example, an image processing apparatus that is inexpensive and easy to miniaturize can be obtained.

【0031】ところで、上述のように、光学歪みの補正
は、光学系の焦点距離情報と、結像位置の光軸からの距
離情報とを検出し、この検出情報に基づいて行われる。
一般に蓄積型の光電変換素子を用いて、画像信号を取り
出す場合、被写体光の蓄積時間と出力時間とがズレてし
まい、映像信号の出力期間に光学系の焦点距離情報等を
検出して歪み補正を行うと、出力されている映像信号の
蓄積期間の光学系の焦点距離情報が必ずしも一致せず、
補正に過不足を生ずる。また、光学系の焦点距離は、刻
一刻と変化しているため、リアルタイムに光学系の焦点
距離情報を検出して、歪み補正を行うと同一画面内でも
歪み補正量が異なり不自然な映像となってしまう。
By the way, as described above, the optical distortion is corrected by detecting the focal length information of the optical system and the distance information from the optical axis of the image forming position, and based on this detection information.
Generally, when an image signal is taken out by using a storage type photoelectric conversion element, the storage time of the subject light and the output time are different, and the distortion correction is performed by detecting the focal length information of the optical system during the output period of the video signal. If you do, the focal length information of the optical system during the accumulation period of the output video signal does not necessarily match,
There is an excess or deficiency in the correction. In addition, the focal length of the optical system changes every second, so if the focal length information of the optical system is detected in real time and distortion correction is performed, the amount of distortion correction will differ even within the same screen, resulting in unnatural images. turn into.

【0032】出力される映像信号の蓄積期間の光学系の
情報を、該当する画像の読み出しタイミングまで遅延さ
せることにより、上述問題を解決した例を説明する。本
例では、光学系の焦点距離等の情報を、撮像素子の電荷
蓄積期間の所定タイミングで取り込み、また、読み出し
アドレス発生部でズーム係数Sを与えるタイミングを取
り込んだ画像信号の読み出し開始時に設定している。
An example in which the above problem is solved by delaying the information of the optical system during the accumulation period of the output video signal until the reading timing of the corresponding image will be described. In this example, information such as the focal length of the optical system is fetched at a predetermined timing in the charge accumulation period of the image sensor, and the timing for giving the zoom coefficient S in the read address generator is set at the start of reading the image signal. ing.

【0033】図8を参照して被写体光が画像メモリに記
憶されて読み出されるまでの過程を説明すると、垂直同
期信号Vに応答して光電変換部から垂直転送部への転送
パルスTが送出され、不要電荷排出パルスSにより不要
電荷が排出される。図中、期間Aで不要電荷が排出さ
れ、期間Bでは電荷が蓄積されて光学系情報が取り込ま
れる。また、期間Cでメモリへの転送と書き込みが行わ
れ、期間Dでメモリからの読み出しが行われ、垂直同期
のタイミングでズーム係数Sが設定される。すなわち、
本例では、期間Bで得られた光学系情報を1画面分遅ら
せてメモリから読み出して係数を設定している。
The process until the subject light is stored in the image memory and read out will be described with reference to FIG. 8. In response to the vertical synchronizing signal V, a transfer pulse T is sent from the photoelectric conversion unit to the vertical transfer unit. The unnecessary charges are discharged by the unnecessary charge discharging pulse S. In the figure, unnecessary charges are discharged in period A, and charges are accumulated in period B to take in optical system information. In addition, transfer and writing to the memory are performed in the period C, reading from the memory is performed in the period D, and the zoom coefficient S is set at the timing of vertical synchronization. That is,
In this example, the optical system information obtained in the period B is delayed by one screen and read from the memory to set the coefficient.

【0034】マイコンによる光学系情報の検出回路例が
図9に示されている。ズーム比により変化する光学系1
のズームレンズの位置情報は、ズームレンズの位置に応
動する移動接片をもち、一端が接地されている可変抵抗
器RVと抵抗R1に直列接続された外部電源E1が設け
られ、ズームレンズの移動により抵抗値が変化する可変
抵抗RVと抵抗R1の接続点の電圧を、上記タイミング
信号V,T,Sが供給されているマイコン1内の電圧検
出器111で検出する。マイコン11はタイミング制御
回路114を有し、各部に上記信号V,T,Sに基づく
タイミング信号を供給する。電圧検出部111は、期間
Bでのズームレンズの移動距離を求め、電圧/焦点距離
換算部112で、焦点距離情報を得た後、パラメータ設
定部113でタイミング信号Vのタイミングでパラメー
タが設定されて、係数Sが出力される。
FIG. 9 shows an example of a circuit for detecting optical system information by the microcomputer. Optical system 1 that changes depending on the zoom ratio
The position information of the zoom lens is provided with an external power source E1 connected in series with a variable resistor RV having a movable contact piece that responds to the position of the zoom lens, one end of which is grounded, and the resistor R1. The voltage at the connection point between the variable resistor RV and the resistor R1 whose resistance value changes according to is detected by the voltage detector 111 in the microcomputer 1 to which the timing signals V, T and S are supplied. The microcomputer 11 has a timing control circuit 114, and supplies a timing signal based on the signals V, T, S to each section. The voltage detection unit 111 obtains the moving distance of the zoom lens in the period B, the voltage / focal length conversion unit 112 obtains the focal length information, and then the parameter setting unit 113 sets the parameter at the timing of the timing signal V. Then, the coefficient S is output.

【0035】上述の例以外に、画像メモリへの画像情報
の書き込み時点で光学歪みを補正することもできる。こ
うすることにより、蓄積期間の情報がそのまま書き込み
期間に生かされるので、より高精度な歪み補正が可能と
なる。
In addition to the above example, the optical distortion can be corrected at the time of writing the image information in the image memory. By doing so, the information of the accumulation period is used as it is in the writing period, so that more accurate distortion correction becomes possible.

【0036】次に、光学歪み補正を行う際、焦点距離等
の光学系の状態変化に対する歪量変化の割合に基づい
て、視覚的に目立たない範囲で離散的に歪みの補正係数
を求めることによりメモリ容量の削減を図る例を説明す
る。
Next, when performing the optical distortion correction, the distortion correction coefficient is discretely obtained within a visually inconspicuous range based on the ratio of the change in the distortion amount to the change in the state of the optical system such as the focal length. An example of reducing the memory capacity will be described.

【0037】上述のように、光学歪みは光学系の焦点距
離と、結像位置の光軸からの距離により規定されるの
で、焦点距離が変われば補正の度合いも変える必要があ
る。しかしながら、一般的に人間が光学歪みを検知でき
るのは歪の割合が1%以上であると言われている。した
がって、焦点距離によって逐一補正状態を変更するのは
非常に繁雑であり、また焦点距離検出誤差による補正の
ふらつき等が生じてしまうことになる。
As described above, since the optical distortion is defined by the focal length of the optical system and the distance from the optical axis of the image forming position, it is necessary to change the degree of correction if the focal length changes. However, it is generally said that human beings can detect optical distortion when the distortion ratio is 1% or more. Therefore, it is very complicated to change the correction state one by one according to the focal length, and the fluctuation of the correction due to the focal length detection error may occur.

【0038】そこで、本例では、補正すべきステップを
必要以上に細かく設定することなく、視覚的に違和感の
ない範囲内では、光学歪み補正の変更を行わず、つま
り、光学歪みが予め定めた範囲内にある場合には、同一
の補正係数を使用することにより、光学歪み補正に必要
なメモリ容量と演算量を削減している。
Therefore, in this example, the optical distortion correction is not changed within a range where there is no visual discomfort without setting the steps to be corrected more than necessary, that is, the optical distortion is predetermined. If it is within the range, the same correction coefficient is used to reduce the memory capacity and the amount of calculation required for optical distortion correction.

【0039】図10には、光学系の焦点距離と歪量との
関係が示されている。図10について、焦点距離:6.
5mm〜52mm(8倍)の範囲で考えると、歪の割合
は、−18%〜+2.5%の範囲にあり、補正後の歪の
割合が±1%以内になるようにするには、 {2.5−(−18)}/{1−(−1)}=10.25 すなわち、少なくとも11段階に分割した各分割範囲で
焦点距離を検出すれば良い。例えば、図11に示すよう
に、歪み量が+1%〜−1%の範囲(焦点距離が1〜2
の範囲)、歪量が−1%〜−3%の範囲(焦点距離が2
〜3の範囲)、−3%〜−5%の範囲に分割し、焦点距
離が各分割範囲内にあるときには、歪み補正のための係
数は同一値を用いるようにする。図2からr=100の
点の歪量が最大となるので、r=1における歪み率が検
知限度に収まれば、r<1の範囲では歪みは更に小さく
なる。
FIG. 10 shows the relationship between the focal length of the optical system and the amount of distortion. Regarding FIG. 10, focal length: 6.
Considering the range of 5 mm to 52 mm (8 times), the strain rate is in the range of -18% to + 2.5%, and in order to keep the corrected strain rate within ± 1%, {2.5-(-18)} / {1-(-1)} = 10.25 That is, the focal length may be detected in each of the division ranges divided into at least 11 stages. For example, as shown in FIG. 11, the distortion amount is in the range of + 1% to -1% (the focal length is 1 to 2).
Range), the distortion amount is in the range of -1% to -3% (the focal length is 2
.About.3), -3% to -5%, and when the focal length is within each divided range, the same coefficient is used for distortion correction. From FIG. 2, the amount of strain at the point of r = 100 is the maximum, so if the strain rate at r = 1 falls within the detection limit, the strain becomes even smaller in the range of r <1.

【0040】図12を参照して本例のマイコン内の動作
処理手順を説明すると、図9のズームレンズ位置検出手
段と同様な手段により、対応する電圧が検出され(ステ
ップS1)、検出された電圧から焦点距離が換算され
(ステップS2)、焦点距離ゾーンが判定される(ステ
ップS3)。このゾーンは上記±1%の歪み量変化範囲
に対応する焦点距離変化範囲の分割範囲である。続い
て、ゾーンの変更の有無が判定され(ステップS4)、
なければ、ステップS1の処理に戻り、ゾーン変更が有
れば係数Sを演算して(ステップS5)、リードアドレ
ス発生ブロックに送出する。
The operation processing procedure in the microcomputer of this embodiment will be described with reference to FIG. 12. The corresponding voltage is detected by the same means as the zoom lens position detecting means of FIG. 9 (step S1) and detected. The focal length is converted from the voltage (step S2), and the focal length zone is determined (step S3). This zone is a divided range of the focal length change range corresponding to the strain amount change range of ± 1%. Then, it is determined whether or not the zone is changed (step S4),
If not, the process returns to step S1, and if there is a zone change, the coefficient S is calculated (step S5) and sent to the read address generation block.

【0041】次に、光学系歪みを電気的に補正する際に
生ずる画面の切れ(画角切れ)を電子ズームを同時に行
うことにより除去する例について説明する。前述のよう
に、光学歪みのうち糸まき型はTele側操作時に生じ
易く、たる型歪みはWide側操作時に生じ易い。ここ
で、糸まき型歪み発生時には、図13(A)のように本
来の画像領域(長方形領域)左上部の角部点Aが従来の
光学歪補正により、同図(B)のように内側に移動する
ことになり、同図斜線部領域は、光電変換素子のない部
分からの信号で、画像のない画角切れが生ずる。そこ
で、本例では、光学歪み補正と同時に電子ズームを行っ
てこの画角切れを防止している。電子ズーム倍率は、大
きい値にする必要はなく、画角切れが生じない程度の小
さい値に設定すれば良い。
Next, an example will be described in which the disconnection of the screen (the disconnection of the angle of view) that occurs when electrically correcting the optical system distortion is removed by simultaneously performing the electronic zoom. As described above, among the optical distortions, the thread-winding type is likely to occur during the operation on the Tele side, and the barrel type distortion is likely to occur during the operation on the Wide side. Here, at the time of occurrence of the thread winding type distortion, the corner point A at the upper left part of the original image area (rectangular area) is inward as shown in FIG. 13 (B) by the conventional optical distortion correction as shown in FIG. 13 (A). Therefore, the shaded area in the figure is a signal from a portion without a photoelectric conversion element, and the angle of view with no image is cut off. Therefore, in this example, the electronic zoom is performed at the same time as the optical distortion correction to prevent the disconnection of the angle of view. The electronic zoom magnification does not have to be a large value, and may be set to a small value that does not cause a break in the angle of view.

【0042】そのためのハードウェア構成は、図5の構
成と同一であり、Hアドレスピッチ発生回路1202と
Vアドレスピッチ発生回路1204に設定するズーム倍
率設定用のピッチとして例えば0.9の値が設定されて
いる。このときの動作としては、当該時点でのf値を入
力したマイコンは、このf値に基づく歪み補正のための
補正量を演算するとともに、これに応じた画角切れ防止
のための電子ズーム用のピッチをH,Vともに出力す
る。
The hardware configuration therefor is the same as that of FIG. 5, and a value of 0.9 is set as the pitch for setting the zoom magnification set in the H address pitch generation circuit 1202 and the V address pitch generation circuit 1204. Has been done. As the operation at this time, the microcomputer that has input the f value at that time calculates a correction amount for distortion correction based on the f value, and for the electronic zoom for preventing the angle of view cutoff corresponding to this. Both the pitches of H and V are output.

【0043】次に、本発明の実施例にとして、光学歪み
補正を行う映像処理装置において、自動合焦制御(A
F)、自動露出制御(AE)及び自動ホワイトバランス
制御(AWB)のいずれかまたは全部の制御をも可能と
する例を説明する。この例は、該制御を行う際に与えら
れる重み付け係数を、画像領域の分割エリア毎に歪み補
正量に応じて変化させたり、歪み補正されたその映像信
号を用いて制御のための基礎情報の検出と各制御を行う
例である。
Next, as an embodiment of the present invention, an automatic focusing control (A
An example will be described in which any or all of F), automatic exposure control (AE), and automatic white balance control (AWB) can be controlled. In this example, the weighting coefficient given when performing the control is changed according to the distortion correction amount for each divided area of the image area, or the basic information for control is used by using the distortion-corrected video signal. This is an example of performing detection and each control.

【0044】以下の制御例は、上記AF制御、AE制御
及びAWB制御の各制御対象について適用できるが、一
例としてAF制御について説明する。第1の例は、各分
割エリア毎のコントラスト情報(制御基礎パラメータ)
に含まれる歪みによる誤差の影響を、エリア毎の重み付
け値を歪み量に応じて変化させることにより、結果とし
て得られる重み付け後のコントラスト情報を歪みによら
ずに安定して得るとともに、安定な自動焦点(AF)制
御を可能とする。また、歪み補正後の画像情報を用いれ
ば、歪によらず安定したコントラスト情報が得られ、安
定なAF制御が可能となる。したがって、ズーム比によ
らず、安定したAF制御が可能となり、歪みのない画像
情報を得ることができ、歪み補正レンズのない光学系を
使用できるので小型、軽量化が可能である。
The following control example can be applied to each of the control objects of the AF control, the AE control and the AWB control, but the AF control will be described as an example. The first example is contrast information (basic control parameters) for each divided area.
By changing the weighting value for each area according to the amount of distortion, the effect of the error due to the distortion included in is obtained stably as the resulting weighted contrast information without distortion, and stable automatic Enables focus (AF) control. Further, if the image information after distortion correction is used, stable contrast information can be obtained regardless of distortion, and stable AF control can be performed. Therefore, stable AF control can be performed irrespective of the zoom ratio, image information without distortion can be obtained, and an optical system without a distortion correction lens can be used, so that the size and weight can be reduced.

【0045】第2の例は、コントラスト情報の検出に用
いるセンサとして映像信号を得るための撮像素子とは別
のセンサを用いるもので、そのセンサに入射される光が
撮像素子に結像するズームレンズを透過したTTL式の
ものであれば、同様の効果が得られる。 この第2の例
では、電子的に歪み補正された画像情報を用いて、各分
割エリア毎のコントラスト情報を得ているので、歪みに
よる影響を受けることなく、ズーム比によらず安定した
AF制御が可能となり、歪み補正を映像処理装置内部に
含ませることにより、歪みのない画像情報を得ることが
でき、同様に歪み補正レンズのない光学系を使用できる
ので、小型、軽量化も可能となる。上述において、制御
対象は、焦点(AF)制御だけでなく、露出(AE)制
御、ホワイトバランス(AWB)制御についても、制御
基準パラメータとして輝度情報や色情報を用いれば同様
に行うことができる。
In the second example, a sensor other than the image pickup device for obtaining a video signal is used as a sensor used for detecting contrast information, and the zoom which the light incident on the sensor forms an image on the image pickup device. The same effect can be obtained as long as it is of the TTL type that passes through the lens. In the second example, since the image information that has been electronically distortion-corrected is used to obtain the contrast information for each divided area, stable AF control is performed regardless of the zoom ratio without being affected by the distortion. By including the distortion correction inside the image processing device, it is possible to obtain image information without distortion, and similarly, since an optical system without a distortion correction lens can be used, it is possible to reduce the size and weight. . In the above description, not only the focus (AF) control but also the exposure (AE) control and the white balance (AWB) control can be performed in the same manner as the control target by using the brightness information and the color information as the control reference parameters.

【0046】第1の例について図14を参照して説明す
る。図14において、図1と同一符号が付されている構
成部は同様機能を有する構成部を示す。光学系1には、
ズームレンズの位置情報を検出するズームエンコーダ1
A,ズームレンズ位置を駆動制御するズーム駆動部1B
と、焦点制御部1C及び絞り駆動部1Dが備えられてい
る。ズームエンコーダ1Aからのズームレンズ位置情報
がマイコン11に供給され、ズーム制御信号、焦点制御
信号及び絞り制御信号がマイコン11からズーム駆動部
1B、焦点制御部1C及び絞り制御部1Dに送出され
る。
The first example will be described with reference to FIG. In FIG. 14, components designated by the same reference numerals as those in FIG. 1 are components having the same function. The optical system 1 has
Zoom encoder 1 for detecting position information of the zoom lens
A, a zoom drive unit 1B for driving and controlling the zoom lens position
And a focus control unit 1C and an aperture drive unit 1D. The zoom lens position information from the zoom encoder 1A is supplied to the microcomputer 11, and the zoom control signal, the focus control signal and the aperture control signal are sent from the microcomputer 11 to the zoom drive unit 1B, the focus control unit 1C and the aperture control unit 1D.

【0047】マイコン11は、後述するように、分割エ
リア毎のコントラスト信号、輝度信号及び色信号の少な
くとも1つの信号を受け、補正ROM14に格納されて
いる各エリア情報に乗算すべき適切な補正データ(重み
付けデータ)を読み出し、補正データをリードコントロ
ール回路12に送出する。リードコントロール回路12
は、前述のような処理を補正ROM15に格納されてい
るデータに基づいて画像メモリ5と補間回路6に制御信
号を送出する。補正ROM14と15は、マイコン11
やリードコントロール回路12内での演算で必要なデー
タを求める場合には不要である。
As will be described later, the microcomputer 11 receives at least one signal of a contrast signal, a luminance signal and a color signal for each divided area, and appropriate correction data to be multiplied by each area information stored in the correction ROM 14. The (weighting data) is read and the correction data is sent to the read control circuit 12. Read control circuit 12
Sends a control signal to the image memory 5 and the interpolation circuit 6 based on the data stored in the correction ROM 15 through the above-described processing. The correction ROMs 14 and 15 include the microcomputer 11
It is not necessary to obtain necessary data by calculation in the or read control circuit 12.

【0048】撮像プロセス回路3から出力されるY信号
は、そのまま、またフィルター16によりコントラスト
情報信号に変換されて、セレクタ17に供給されるとと
もに、C信号もセレクタ17に供給される。セレクタ1
7は、マイコン11からの選択信号に応答してY信号、
コントラスト信号、C信号のうち必要な情報データを選
択する。エリア積分回路18は、セレクタ17で選択さ
れた信号を分割エリア毎に積分して、エリア積分された
上記信号から得られる輝度信号や色信号をマイコン11
に供給して、後述するように、コントラスト情報に基づ
く焦点制御、輝度情報に基づく露出制御及び色情報(色
差信号であるRーY信号やBーY信号等)に基づくホワ
イトバランス制御処理を行う。
The Y signal output from the image pickup process circuit 3 is directly supplied to the selector 17 after being converted into a contrast information signal by the filter 16 and supplied to the selector 17 as well. Selector 1
7 is a Y signal in response to a selection signal from the microcomputer 11,
Necessary information data is selected from the contrast signal and the C signal. The area integrator circuit 18 integrates the signal selected by the selector 17 for each divided area, and outputs the brightness signal and the color signal obtained from the area integrated signal to the microcomputer 11
As will be described later, focus control based on contrast information, exposure control based on luminance information, and white balance control processing based on color information (color difference signals such as RY signal and BY signal) are performed. .

【0049】図15の(A)と(B)には、糸まき型歪
み発生前における各分割エリアの重み付け値と、たる型
歪み発生前における各分割エリアの重み付け値の例が示
されている。この重み付け値は、もともと画面の略中央
部に主要な被写体が存在してくるであろうことを考慮し
てAF、AE及びAWB等のために設定された演算値の
一例を示すものである。図からも明らかなように、糸ま
き型歪み発生時には、周辺部の画像ほど歪んでいるの
で、理想画像に対する補正はその分だけ大きく行わなけ
ればならず、よって周辺部で重み付け値を増大させる必
要がある。
15 (A) and 15 (B) show examples of weighting values for each divided area before the occurrence of yarn winding distortion and weighting values for each divided area before the occurrence of barrel distortion. . This weighting value shows an example of the calculated value originally set for AF, AE, AWB, etc. in consideration of the possibility that a main subject will be present in the approximate center of the screen. As is clear from the figure, when the thread-wound type distortion occurs, the image in the peripheral portion is distorted, so the correction for the ideal image must be performed correspondingly, and therefore the weighting value must be increased in the peripheral portion. There is.

【0050】たる型歪み発生時の重み付け値の変化とそ
の補正例が図16に示されている。本例では、少なくと
も画素から成るブロックのそれぞれに重み付け値を設定
しているが、4×4ブロックを1分割エリアとして扱
う。エリアAとエリアBが、たる型歪みにより変形して
それぞれエリアCとエリアDとなる。歪みのない場合の
各エリアの重み付けは、 エリアA:{(0×3)+(1×3)+(2×4)+(3×3)+(4×2) +(5×1)}/16(=)2 ・・・・(a) エリアB:{(7×1)+(8×2)+(9×3)+(10×4)+(11× 3)+(12×2)+13}/16(=)10 ・・・・(b) 歪み発生後の各エリアの重み付けは、 エリアC:{(7×4)+(8×4)+(9×3)}/11(=)8 ・・・・(c) エリアD:{(11×5)+(12×3)+(13×2)}/10(=)12 ・・・・(d) となり、同一の画像成分であるにもかかわらず、重み付
け係数が変化していることがわかる。そこで、同一の画
像に対して歪みの発生前後で同一の重み付けを行うため
に、補正された重み付け係数を求める。即ち、補正後の
各エリアの重み付けは、エリアAは、元々画像がないか
ら、 エリアA:(画素データ×画素の数)/画素の数 =(0×16)/16=0 エリアB:{((a)×エリアB内に投影されているエ
リアCの画素数)+((b)×エリアB内に投影されて
いるエリアDの画素数)/(エリアB内に投影されてい
るエリアCとDの総画素数) 即ち、 ={(2×6)+(10×6)}/12=6 したがって、エリアBに対しては補正係数を6/10と
すれば良い。このように重み付け値の補正は、各分割エ
リアに含まれる歪みのない場合の重み付け値と小ブロッ
クの画素数の積の平均値を補正された重み付け値とする
ように行われる。
FIG. 16 shows a change in weighting value when barrel distortion occurs and an example of correction thereof. In this example, the weighting value is set for each block including at least pixels, but a 4 × 4 block is treated as one divided area. Area A and area B are deformed by barrel distortion to become area C and area D, respectively. The weighting of each area when there is no distortion is as follows: Area A: {(0x3) + (1x3) + (2x4) + (3x3) + (4x2) + (5x1) } / 16 (=) 2 ... (a) Area B: {(7x1) + (8x2) + (9x3) + (10x4) + (11x3) + (12 × 2) +13} / 16 (=) 10 ... (b) The weighting of each area after the distortion is generated is area C: {(7 × 4) + (8 × 4) + (9 × 3)} /11(=)8...(c) Area D: {(11 * 5) + (12 * 3) + (13 * 2)} / 10 (=) 12 ... (d) It can be seen that the weighting coefficient has changed despite the same image component. Therefore, in order to perform the same weighting on the same image before and after the occurrence of distortion, a corrected weighting coefficient is obtained. That is, the weighting of each area after the correction is as follows: Area A originally has no image, and therefore Area A: (pixel data × number of pixels) / number of pixels = (0 × 16) / 16 = 0 area B: { ((A) × number of pixels of area C projected in area B) + ((b) × number of pixels of area D projected in area B) / (area projected in area B Total number of pixels of C and D) That is, = {(2 × 6) + (10 × 6)} / 12 = 6 Therefore, for area B, the correction coefficient may be set to 6/10. In this way, the correction of the weighting value is performed so that the average value of the products of the weighting value in the case where there is no distortion included in each divided area and the number of pixels of the small blocks is taken as the corrected weighting value.

【0051】図17を参照して歪み補正前の信号を用い
た実施例の処理手順を説明すると、先ず、自動制御モー
ドであるか否かを判定し(ステップS11)、自動制御
モードであると判定したときには、ズームエンコーダ1
Aからのズーム位置情報をマイコン11が読み取り(ス
テップS12)、歪み補正量をコード化する(ステップ
S13)。次に、歪み補正コードによるテーブルデータ
を参照して各エリアの重み付け値の補正係数を読み出し
(ステップS14)、マイコン内に別に格納されている
重み付けデータに補正係数を乗算して各エリアの重み付
け値を補正し(ステップS15)、セレクタ17により
エリア積分器18の入力を切り換え(ステップS1
6)、必要な制御基準パラメータ(コントラスト情報、
輝度情報、色情報等)を積分器18によりエリア積分し
て(ステップS17)、該エリア積分データをマイコン
に供給する(マイコン11による読み込み)(ステップ
S18)。続いて補正された重み付けデータを参照し
(ステップS19)、各エリアの積分データの重み付け
処理を施し(ステップS20)、新たな制御データを演
算する。そして、重み付けされたエリア積分データから
制御データを決定する(ステップS21)。その後、制
御データを出力して(ステップS22)、ステップS1
1の処理に戻る。
The processing procedure of the embodiment using the signal before distortion correction will be described with reference to FIG. 17. First, it is judged whether or not the automatic control mode is set (step S11), and the automatic control mode is set. When judged, the zoom encoder 1
The microcomputer 11 reads the zoom position information from A (step S12) and codes the distortion correction amount (step S13). Next, the correction coefficient of the weighting value of each area is read by referring to the table data of the distortion correction code (step S14), and the weighting data separately stored in the microcomputer is multiplied by the correction coefficient to calculate the weighting value of each area. Is corrected (step S15), and the selector 17 switches the input of the area integrator 18 (step S1).
6) necessary control reference parameters (contrast information,
Area information of luminance information, color information, etc.) is integrated by the integrator 18 (step S17), and the area integration data is supplied to the microcomputer (read by the microcomputer 11) (step S18). Subsequently, the corrected weighting data is referred to (step S19), the integration data of each area is weighted (step S20), and new control data is calculated. Then, the control data is determined from the weighted area integration data (step S21). Then, control data is output (step S22), and step S1
Return to processing of 1.

【0052】次に、上記第2の例として、歪み補正され
た信号を用いる実施例について説明する。図18は、本
実施例の構成ブロック図であり、図14と同一符号が付
されている回路部は同様機能を有する回路部である。本
実施例では、補間回路6で歪み補正されたY信号とC信
号を用い、フィルタ16でコントラスト情報が得られ、
セレクタ17には歪み補正されたコントラスト信号、Y
信号、C信号の制御基準パラメータが供給され、マイコ
ン11からの選択信号により、所望の信号がエリア積分
器18に供給される。エリア積分器18は、入力信号を
エリア積分して積分値をマイコン11に供給する。
Next, as a second example, an embodiment using a distortion-corrected signal will be described. FIG. 18 is a block diagram of the configuration of this embodiment, and the circuit parts denoted by the same reference numerals as those in FIG. 14 are circuit parts having the same function. In this embodiment, the Y signal and the C signal whose distortion is corrected by the interpolation circuit 6 are used, and the contrast information is obtained by the filter 16.
Distortion corrected contrast signal Y
The control reference parameters of the signal and the C signal are supplied, and a desired signal is supplied to the area integrator 18 by the selection signal from the microcomputer 11. The area integrator 18 performs area integration on the input signal and supplies the integrated value to the microcomputer 11.

【0053】図19を参照して、本実施例の処理手順を
説明する。先ず、自動制御モードであるか否かを判定し
(ステップS31)、自動制御モードであれば、エリア
積分器18の入力を切り換え、必要な制御基準パラメー
タを出力し(ステップS32)、このパラメータ信号エ
リア積分器でエリア積分し(ステップS33)、エリア
積分データの演算処理を施す(ステップS34)。次
に、重み付けデータを参照し(ステップS35)、各エ
リアの積分データの重み付け処理を行い(ステップS3
6)、重み付けされたエリア積分データから制御データ
を求める新たな制御データの演算処理を施し(ステップ
S37)、制御データを出力した後(ステップS3
8)、ステップS31の処理に戻る。
The processing procedure of this embodiment will be described with reference to FIG. First, it is determined whether or not it is the automatic control mode (step S31), and if it is the automatic control mode, the input of the area integrator 18 is switched and the necessary control reference parameter is output (step S32). Area integration is performed by the area integrator (step S33), and area integration data is calculated (step S34). Next, the weighting data is referred to (step S35), and the integration data of each area is weighted (step S3).
6) After performing arithmetic processing of new control data for obtaining control data from the weighted area integration data (step S37), the control data is output (step S3).
8) and returns to the process of step S31.

【0054】而して、本発明においては、上記実施例や
他の例を1つ又は複数種組み合わせることによって使用
し得ること勿論であり、本発明の要旨を逸脱しない範囲
で種々変更が可能である。
In the present invention, it goes without saying that one or more of the above-mentioned embodiments and other examples can be used in combination, and various changes can be made without departing from the gist of the present invention. is there.

【0055】[0055]

【発明の効果】以上説明したように本発明による映像処
理装置によれば、光学歪みの程度を考慮して正確な合焦
情報を得、この情報の基づいて適正な合焦調節を行うこ
とができる。
As described above, according to the image processing apparatus of the present invention, accurate focus information can be obtained in consideration of the degree of optical distortion, and proper focus adjustment can be performed based on this information. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に関連する映像処理装置の構成ブロック
図である。
FIG. 1 is a configuration block diagram of a video processing apparatus related to the present invention.

【図2】ズームレンズの光学歪み特性の一例を示す図で
ある。
FIG. 2 is a diagram showing an example of optical distortion characteristics of a zoom lens.

【図3】本発明に関連する装置の動作を説明するための
図である。
FIG. 3 is a diagram for explaining the operation of the device related to the present invention.

【図4】本発明に関連する装置の動作を説明するための
図である。
FIG. 4 is a diagram for explaining the operation of the device related to the present invention.

【図5】図1に示す例における電子ズーム機能と光学歪
み補正機能を実現する回路例である。
5 is an example of a circuit that realizes an electronic zoom function and an optical distortion correction function in the example shown in FIG.

【図6】本発明に関連する他の例における映像処理装置
の構成ブロック図である。
FIG. 6 is a configuration block diagram of a video processing device in another example related to the present invention.

【図7】図6に示す例における手ぶれ補正機能と光学歪
み補正機能を実現する回路例である。
7 is an example of a circuit that realizes a camera shake correction function and an optical distortion correction function in the example shown in FIG.

【図8】本発明に関連する映像処理装置の動作を説明す
るためのタイミングチャートである。
FIG. 8 is a timing chart for explaining the operation of the video processing device related to the present invention.

【図9】図8に示す例におけるズームレンズ位置情報の
検出部の構成ブロック図である。
9 is a configuration block diagram of a detection unit of zoom lens position information in the example shown in FIG.

【図10】本発明に関連する他の実施例を説明するため
の光学系の焦点距離と歪量との関係を示す図である。
FIG. 10 is a diagram showing the relationship between the focal length and the amount of distortion of the optical system for explaining another embodiment related to the present invention.

【図11】図10に示す例を説明するための光学系の焦
点距離と歪み率との関係を示す図である。
11 is a diagram showing the relationship between the focal length and the distortion rate of the optical system for explaining the example shown in FIG.

【図12】図10に示す例の構成と動作処理手順を示す
図である。
12 is a diagram showing the configuration and operation processing procedure of the example shown in FIG.

【図13】本発明に関連する例を説明するための図であ
る。
FIG. 13 is a diagram for explaining an example related to the present invention.

【図14】本発明の実施例を示す構成ブロック図であ
る。
FIG. 14 is a configuration block diagram showing an embodiment of the present invention.

【図15】図14に示す実施例を説明するための図であ
る。
FIG. 15 is a diagram for explaining the embodiment shown in FIG.

【図16】図14に示す実施例を説明するための図であ
る。
16 is a diagram for explaining the embodiment shown in FIG.

【図17】図14に示す実施例の動作処理手順を示すフ
ローチャートである。
17 is a flowchart showing an operation processing procedure of the embodiment shown in FIG.

【図18】図14に示す実施例の基準原理に基づく他の
構成例ブロック図である。
18 is a block diagram of another configuration example based on the reference principle of the embodiment shown in FIG.

【図19】図18に示す実施例の動作処理手順を示すフ
ローチャートである。
FIG. 19 is a flowchart showing an operation processing procedure of the embodiment shown in FIG.

【図20】光学系歪みの例を示す図である。FIG. 20 is a diagram showing an example of optical system distortion.

【図21】光学系歪みの補正を説明するための図であ
る。
FIG. 21 is a diagram for explaining correction of optical system distortion.

【図22】従来の映像処理装置の構成ブロック図であ
る。
FIG. 22 is a configuration block diagram of a conventional video processing device.

【符号の説明】 1 光学系 2 撮像素子 3 撮像プロセス回路 4 A/Dコンバータ 5 画像メモリ 6 補間回路 7 D/Aコンバータ 8 TG回路 9 SSG回路 10 ライトコントロール回路 11 マイコン 12A,12 リードコントロール回路 13 動き検出器 14,15、19 補正ROM 16 フィルタ 17 セレクタ 18 エリア積分器[Explanation of Codes] 1 Optical system 2 Image sensor 3 Imaging process circuit 4 A / D converter 5 Image memory 6 Interpolation circuit 7 D / A converter 8 TG circuit 9 SSG circuit 10 Write control circuit 11 Microcomputer 12A, 12 Read control circuit 13 Motion detector 14, 15, 19 Correction ROM 16 Filter 17 Selector 18 Area integrator

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H04N 5/335 Z (72)発明者 師橋 大吉 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 井上 淳 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification number Reference number within the agency FI Technical indication location H04N 5/335 Z (72) Inventor Daikichi Shirahashi 2-43-2 Hatagaya, Shibuya-ku, Tokyo Ori Inpass Optical Industry Co., Ltd. (72) Inventor Jun Inoue 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Industry Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】光学系による像を光電変換して得た映像信
号をこの映像信号に対応する映像データに変換する変換
手段と、 上記変換手段による映像データを当該記憶手段に書き込
み又は読み出しするに際して該映像データに上記光学系
による像の歪みに対応した補正を与える歪み補正手段
と、 上記映像信号に係る画面内の複数の領域毎に設定された
重み付け係数を適用してこれら複数の領域から像の尖鋭
度に係る合焦情報を得るにつき該重み付け係数に上記像
の歪みに対応した程度の係数補正を加味するようになさ
れた合焦情報調整検出手段と、を有してなることを特徴
とする映像装置。
1. A conversion means for converting a video signal obtained by photoelectrically converting an image by an optical system into video data corresponding to the video signal, and for writing or reading the video data by the conversion means into the storage means. Distortion correcting means for applying a correction corresponding to the distortion of an image by the optical system to the video data, and a weighting coefficient set for each of a plurality of areas in the screen related to the video signal are applied to image from the plurality of areas. Focusing information adjustment detecting means adapted to add the coefficient correction of the degree corresponding to the distortion of the image to the weighting coefficient in obtaining the focusing information related to the sharpness of the image. Video equipment.
JP25789393A 1993-10-15 1993-10-15 Video processing device Expired - Fee Related JP3260929B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25789393A JP3260929B2 (en) 1993-10-15 1993-10-15 Video processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25789393A JP3260929B2 (en) 1993-10-15 1993-10-15 Video processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP4751393A Division JP3332977B2 (en) 1993-02-10 1993-02-10 Video equipment

Publications (2)

Publication Number Publication Date
JPH06237413A true JPH06237413A (en) 1994-08-23
JP3260929B2 JP3260929B2 (en) 2002-02-25

Family

ID=17312656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25789393A Expired - Fee Related JP3260929B2 (en) 1993-10-15 1993-10-15 Video processing device

Country Status (1)

Country Link
JP (1) JP3260929B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0926527A2 (en) * 1997-12-25 1999-06-30 Canon Kabushiki Kaisha Photoelectric conversion device, and image pickup device and autofocus camera using the same
JP2007322921A (en) * 2006-06-02 2007-12-13 Canon Inc Imaging system and device, and method of controlling imaging device
JP2008118387A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging device
JP2008116663A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging apparatus
JP2008533550A (en) * 2005-01-19 2008-08-21 ドゥ ラブズ Method for manufacturing an image recording and / or reproduction device and device obtained by said method
JP2012141585A (en) * 2010-12-13 2012-07-26 Canon Inc Imaging apparatus
JP2014171123A (en) * 2013-03-04 2014-09-18 Ricoh Co Ltd Imaging apparatus, exposure control method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0926527A2 (en) * 1997-12-25 1999-06-30 Canon Kabushiki Kaisha Photoelectric conversion device, and image pickup device and autofocus camera using the same
EP0926527A3 (en) * 1997-12-25 2000-09-20 Canon Kabushiki Kaisha Photoelectric conversion device, and image pickup device and autofocus camera using the same
US6704051B1 (en) 1997-12-25 2004-03-09 Canon Kabushiki Kaisha Photoelectric conversion device correcting aberration of optical system, and solid state image pick-up apparatus and device and camera using photoelectric conversion device
JP2008533550A (en) * 2005-01-19 2008-08-21 ドゥ ラブズ Method for manufacturing an image recording and / or reproduction device and device obtained by said method
JP2007322921A (en) * 2006-06-02 2007-12-13 Canon Inc Imaging system and device, and method of controlling imaging device
JP2008118387A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging device
JP2008116663A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging apparatus
JP2012141585A (en) * 2010-12-13 2012-07-26 Canon Inc Imaging apparatus
JP2014171123A (en) * 2013-03-04 2014-09-18 Ricoh Co Ltd Imaging apparatus, exposure control method and program

Also Published As

Publication number Publication date
JP3260929B2 (en) 2002-02-25

Similar Documents

Publication Publication Date Title
US6982756B2 (en) Digital camera, image signal processing method and recording medium for the same
US6342918B1 (en) Image-shake correcting device having first and second correcting means and control means for proportionately applying same
US9451160B2 (en) Imaging apparatus and method for controlling the imaging apparatus
US5990942A (en) Photographing apparatus using image information for blurring correction
JP3297511B2 (en) Video processing device
JP3260929B2 (en) Video processing device
JP3332977B2 (en) Video equipment
US7839435B2 (en) Image sensing apparatus and image sensing method
JP3548204B2 (en) Video processing equipment
JP3278206B2 (en) Imaging device and method thereof
JPH06237404A (en) Video processing unit
JP3299824B2 (en) Video equipment
JPH10155158A (en) Image pickup device and processing method for color image signal
JP4503106B2 (en) Information processing apparatus and method, information processing system, and recording medium
JPH06197261A (en) Image pickup device
JPH0767025A (en) Video processor
JP4321317B2 (en) Electronic camera, camera system, and black spot correction method for electronic camera
JP2621468B2 (en) Video camera equipment
JP2002296490A (en) Range-finding device and camera using the same
JPH0787372A (en) Image pickup device
GB2343317A (en) Video motion detection
JPH0646317A (en) Video signal processing circuit
JP2007180689A (en) Image pickup device
JP4027643B2 (en) Imaging processing device
JP2607688Y2 (en) Electronic imaging device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081214

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081214

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091214

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees