JPH06237406A - Video processing unit - Google Patents

Video processing unit

Info

Publication number
JPH06237406A
JPH06237406A JP5257891A JP25789193A JPH06237406A JP H06237406 A JPH06237406 A JP H06237406A JP 5257891 A JP5257891 A JP 5257891A JP 25789193 A JP25789193 A JP 25789193A JP H06237406 A JPH06237406 A JP H06237406A
Authority
JP
Japan
Prior art keywords
distortion
image
correction
optical
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5257891A
Other languages
Japanese (ja)
Other versions
JP3548204B2 (en
Inventor
Masaomi Tomizawa
将臣 冨澤
Masaru Kawase
大 川瀬
Hiroyuki Watabe
洋之 渡部
Daikichi Morohashi
大吉 師橋
Atsushi Inoue
淳 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP25789193A priority Critical patent/JP3548204B2/en
Publication of JPH06237406A publication Critical patent/JPH06237406A/en
Application granted granted Critical
Publication of JP3548204B2 publication Critical patent/JP3548204B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Adjustment Of Camera Lenses (AREA)

Abstract

PURPOSE:To simplify the control operation without causing a visual sense of incongruity by using the same correction coefficient when a change in distortion if an image corresponding to a change in a focal distance of an optical system is within a prescribed range. CONSTITUTION:A voltage detection section 111 in a microcomputer 11 detects a voltage corresponding to a zoom ratio of a zoom lens 1, a voltage/focal distance conversion section 112 converts the detected voltage into a focal distance, and a focal distance zone is discriminated. The zone indicates a division range being a range of a focal distance change corresponding to a range of a + or -1% distortion change. Then the presence of a zone revision is discriminated and when the zone is revised, a correction coefficient S is operated by a parameter setting section 113, the parameter is sent to a read address generating block, and when no zone revision is in existence, the coefficient S is used as it is. When the optical distortion is within a prescribed range and the image has no visual sense of incongruity, the same correction coefficient is used to save the memory capacity and the quantity of arithmetic operation required for correcting optical distortion thereby simplifying the control operation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は映像処理装置に関し、特
に電子ズーム機能、手ぶれ補正機能及び光学レンズ等の
光学歪みの補正機能を有する映像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device, and more particularly to an image processing device having an electronic zoom function, a camera shake correction function, and a function for correcting optical distortion such as an optical lens.

【0002】[0002]

【従来の技術】光学レンズには収差があるため、光学レ
ンズを介して撮像素子に結像される被写体光学像には光
学歪みが発生してしまい、その結果、映像信号も歪みを
もつ画像となってしまう。光学歪みとしては、図20
(A)に示すような「糸まき型歪み」や図20(B)に
示すような「たる型歪み」がある。これら歪みは、図2
0において、本来点線で示される位置にあるべき画像情
報が実線位置に結像するような歪みである。
2. Description of the Related Art Since an optical lens has an aberration, an optical distortion occurs in an optical image of a subject formed on an image pickup element through the optical lens, and as a result, a video signal is also distorted. turn into. The optical distortion is shown in FIG.
There is a "thread winding type distortion" as shown in (A) and a "barrel type distortion" as shown in FIG. 20 (B). These distortions are
At 0, the distortion is such that the image information originally supposed to be at the position indicated by the dotted line is imaged at the solid line position.

【0003】このような光学歪みを伴う映像信号の歪み
を補正する補正処理としては、映像信号をデジタル信号
に変換して画像メモリに書き込み、歪みに応じて読み出
しアドレスをずらして読み出すことにより画像メモリ上
で光学歪みを補正する処理がある。
As a correction process for correcting the distortion of a video signal accompanied by such optical distortion, the video signal is converted into a digital signal and written in an image memory, and a read address is shifted according to the distortion to read out the image memory. There is a process for correcting the optical distortion above.

【0004】例えば、図21において、光学レンズによ
る歪みがなければ、画像メモリに点線のように記憶され
るべき格子状の画像が光学歪みにより実線のように記憶
されているとする。この画像データを画像メモリから読
み出すとき、A点を読み出すべきタイミングにa点に記
憶されている画像データを、B点を読み出すべきタイミ
ングにb点に記憶されている画像データを、同様にC点
を読み出すべきタイミングにc点に記憶されている画像
データを読み出す。こうすることにより実線で示す歪ん
だ画像は、点線で示す歪みのない元の格子状の画像とし
て読み出され、光学歪みが補正される。
For example, in FIG. 21, if there is no distortion due to the optical lens, it is assumed that the lattice-shaped image to be stored in the image memory as shown by the dotted line is stored as shown by the solid line due to the optical distortion. When this image data is read from the image memory, the image data stored at the point a at the timing of reading the point A, the image data stored at the point b at the timing of reading the point B, the same as the point C. The image data stored at the point c is read at the timing at which is to be read. By doing so, the distorted image shown by the solid line is read as the original image without distortion shown by the dotted line, and the optical distortion is corrected.

【0005】図22には、この種の補正機能を有する従
来の映像処理装置の構成例ブロック図が示されている。
光学レンズ等の光学系1を介して被写体像がCCD等の
撮像素子2に結像される。この撮像素子2に結像されて
いる画像は、上記光学歪みを含んでおり、撮像素子2で
電気信号に変換される。撮像素子2からの信号は、撮像
プロセス回路3で所定の処理が施されて映像信号として
A/Dコンバータ4に供給される。A/Dコンバータ4
でデジタル信号に変換された映像信号は、画像メモリ5
に記憶される。画像メモリ5への信号の書き込み及び読
み出しタイミングは、ライトコントロール回路10とリ
ードコントロール回路12Aによって制御される。SS
G回路9は、当該装置動作の基準タイミング信号を発生
し、TG回路8、撮像プロセス回路3及びライトコント
ロール回路10に供給する。TG回路8は、SSG回路
9からの水平(H)方向、垂直(V)方向の読み出しタ
イミング信号を撮像素子2に送出する。ライトコントロ
ール回路10は、A/Dコンバータ4からの映像信号の
画像メモリ5への書き込みタイミングを制御する。
FIG. 22 is a block diagram showing an example of the configuration of a conventional video processing device having this type of correction function.
A subject image is formed on an image sensor 2 such as a CCD via an optical system 1 such as an optical lens. The image formed on the image sensor 2 contains the optical distortion and is converted into an electric signal by the image sensor 2. The signal from the image pickup device 2 is subjected to a predetermined process in the image pickup process circuit 3 and supplied to the A / D converter 4 as a video signal. A / D converter 4
The video signal converted into a digital signal by the image memory 5
Memorized in. The timing of writing and reading signals to and from the image memory 5 is controlled by the write control circuit 10 and the read control circuit 12A. SS
The G circuit 9 generates a reference timing signal for the operation of the device and supplies it to the TG circuit 8, the imaging process circuit 3 and the write control circuit 10. The TG circuit 8 sends the read timing signals from the SSG circuit 9 in the horizontal (H) direction and the vertical (V) direction to the image sensor 2. The write control circuit 10 controls the timing of writing the video signal from the A / D converter 4 into the image memory 5.

【0006】マイコン11は、光学系1からのズーム情
報等の信号を受け、補正量ROM19に格納されている
補正量データに基づいて上述光学歪みを補正すべくリー
ドコントロール回路12Aを制御する。補正量ROM1
9には、レンズの使用条件毎に、画面の各部について予
め定まる補正量、例えば図20の実線位置と点線位置と
の関係で定まる補正量が格納されている。こうして、リ
ードコントロール回路12Aから出力されるリード信号
により、光学歪みを補正すべく画像メモリ5から読み出
された信号は、補間回路6で補間処理された後、D/A
コンバータ7によりアナログ信号に変換されて出力され
る。かかる光学歪み補正機能をもつ映像処理装置は、特
開平4ー61570号公報に開示されている。
The microcomputer 11 receives signals such as zoom information from the optical system 1 and controls the read control circuit 12A to correct the above optical distortion based on the correction amount data stored in the correction amount ROM 19. Correction amount ROM1
9 stores a correction amount that is predetermined for each part of the screen for each lens usage condition, for example, a correction amount that is determined by the relationship between the solid line position and the dotted line position in FIG. Thus, the signal read from the image memory 5 to correct the optical distortion by the read signal output from the read control circuit 12A is interpolated by the interpolating circuit 6 and then D / A.
It is converted into an analog signal by the converter 7 and output. An image processing device having such an optical distortion correction function is disclosed in Japanese Patent Application Laid-Open No. 4-61570.

【0007】[0007]

【発明が解決しようとする課題】上述のように従来の映
像処理装置は、光学歪みをもつ映像信号を画像メモリに
記憶し、予め光学歪みに応じた各画素毎の補正量をRO
Mに格納しておき、光学歪みに応じてROMから読み出
された補正量に基づいた読み出しアドレスにより光学歪
みを補正している。
As described above, the conventional image processing apparatus stores the image signal having optical distortion in the image memory, and sets the correction amount for each pixel according to the optical distortion in advance.
It is stored in M and the optical distortion is corrected by the read address based on the correction amount read from the ROM according to the optical distortion.

【0008】上記の如き映像処理装置においては、光学
歪みは、光学系の焦点距離と結像位置の光軸からの距離
により規定されるので、焦点距離が変化すれば、補正の
度合いも変化する必要がある。しかしながら、一般的に
人間が光学歪みを検知できるのは歪みの割合が1%以上
であると言われている。従って、焦点距離の変化に応じ
て、逐一補正状態を変更するのは人間の視覚特性に叶っ
たものとは言えず、一方制御動作としては非常に煩雑で
あるうえ、かえって焦点距離検出誤差による補正のふら
つき等が発生する恐れがあった。
In the image processing apparatus as described above, the optical distortion is defined by the focal length of the optical system and the distance from the optical axis of the image forming position. Therefore, if the focal length changes, the degree of correction also changes. There is a need. However, it is generally said that human beings can detect optical distortion when the distortion ratio is 1% or more. Therefore, it cannot be said that changing the correction state one by one according to the change of the focal length is suitable for the human visual characteristics. On the other hand, the control operation is very complicated, and the correction by the focal length detection error is rather made. There was a risk of wobbling.

【0009】本発明は、上記の問題点に鑑み、視覚的に
違和感が少なく且つ制御動作の簡素化が計られた光学歪
み補正機能を有するこの種の映像処理装置を提供しよう
とするものである。
In view of the above problems, the present invention is to provide an image processing apparatus of this type having an optical distortion correction function which has less visual discomfort and simplifies the control operation. .

【0010】[0010]

【課題を解決するための手段】前述の課題を解決するた
め、本発明による映像処理装置は、光学系による像を光
電変換して得た映像信号をこの映像信号に対応する映像
データに変換する変換手段と、上記変換手段による映像
データを当該記憶手段に書き込み又は読み出しするに際
して該映像データに上記光学系による像の歪みに対応し
た補正を与える歪み補正手段とを備えた映像処理装置に
おいて、上記歪み補正手段は、当該光学系の焦点距離の
変化に対応する像の歪み程度の変化が所定範囲内にある
ような焦点距離区間毎に適用すべきデータとしての補正
用データを当該映像信号の補正処理の基礎となるデータ
として当該データ保有手段を備えて構成される。
In order to solve the above-mentioned problems, a video processing apparatus according to the present invention converts a video signal obtained by photoelectrically converting an image by an optical system into video data corresponding to this video signal. An image processing apparatus comprising: a conversion unit; and a distortion correction unit that, when writing or reading the image data by the conversion unit to or from the storage unit, gives a correction corresponding to the image distortion of the optical system to the image data, The distortion correction means corrects the video signal with correction data as data to be applied for each focal length section in which a change in the degree of image distortion corresponding to a change in the focal length of the optical system is within a predetermined range. It is configured to include the data holding means as data that is the basis of processing.

【0011】[0011]

【作用】本発明では、映像データに光学系による像の歪
みに対応した補正を、記憶手段に書き込み又は読み出し
制御して行う歪み補正手段が、当該光学系の焦点距離の
変化に対応する像の歪み程度の変化が所定範囲内にある
ような焦点距離区間に適用すべきデータとしての補正用
データを補正処理の基礎データとして与える。
According to the present invention, the distortion correcting means for correcting the image data by the optical system to correct the distortion of the image by writing or reading the image data into the storage means, and the distortion correcting means of the image corresponding to the change of the focal length of the optical system. Correction data, which is data to be applied to a focal length section in which a change in distortion is within a predetermined range, is given as basic data for correction processing.

【0012】[0012]

【実施例】次に、本発明の実施例について図面を参照し
ながら説明する。図1は、電子ズーム機能と光学歪み補
正機能を行う処理回路を兼用する例の構成ブロック図を
示す。図1において、図22と同一符号が付されている
構成部は同様機能をもつ構成部である。図1において、
マイコン11は、指定された電子ズーム倍率を受け、該
ズーム情報を光学系1に送出して光学ズーム制御を行う
とともに、該ズーム情報を示すズーム係数Sと、ズーム
倍率に対応するHアドレスピッチと、Vアドレスピッチ
をリードコントロール回路12に送出する。リードコン
トロール回路12では、これらの情報に基づいて電子ズ
ーム処理を行うとともに光学歪みの補正処理を行うため
の信号を画像メモリ5と補間回路6に送出する。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 shows a configuration block diagram of an example in which a processing circuit that performs an electronic zoom function and an optical distortion correction function is also used. In FIG. 1, components designated by the same reference numerals as those in FIG. 22 are components having the same function. In FIG.
The microcomputer 11 receives the designated electronic zoom magnification and sends the zoom information to the optical system 1 to perform optical zoom control, and at the same time, a zoom coefficient S indicating the zoom information and an H address pitch corresponding to the zoom magnification. , V address pitch is sent to the read control circuit 12. The read control circuit 12 sends signals to the image memory 5 and the interpolation circuit 6 for performing electronic zoom processing and optical distortion correction processing based on these pieces of information.

【0013】図2(A)には、ズームレンズにおける光
軸からの相対距離(%)と歪み率D(%)との関係につ
いての光学歪特性の一例が示されている。ここで、横軸
は、撮像素子の有効面の対角線の2分の1の長さを10
0%としたときの光軸位置からの相対距離を示し、縦軸
は歪み率Dを示す。ここで、歪み率Dの定義を、相対距
離r離れた点に結像すべき像が光学歪みによりr’に結
像したとき、図2(B)に示すように、 D=(r’−r)/r×100 % (1) とする。焦点距離fにより特性が変動するが、rが大き
くなるほど歪み率Dも大きくなり、この特性は、例えば D=s’’・r2 (2) で近似でき、式(1)、(2)から r’=r(1+s’・r2 ) (3) となる。ここで、s’’及びs’は焦点距離によって決
定する係数であり、 s’=s’’/100 とする。つまり、式(3)により、撮像素子上の光軸か
ら相対距離r離れた点に結像すべき像が光学歪みにより
rの(1+s’・r2 )倍離れた点に結像していると導
ける。
FIG. 2A shows an example of the optical distortion characteristics of the relationship between the relative distance (%) from the optical axis and the distortion rate D (%) in the zoom lens. Here, the abscissa represents the half length of the diagonal line of the effective surface of the image sensor to 10
The relative distance from the optical axis position when 0% is shown, and the vertical axis shows the strain rate D. Here, the definition of the distortion rate D is as follows. When an image to be formed at a point distant from the relative distance r is formed at r ′ due to optical distortion, as shown in FIG. 2B, D = (r′− r) / r × 100% (1) Although the characteristic varies depending on the focal length f, the distortion rate D increases as r increases, and this characteristic can be approximated by, for example, D = s ″ · r 2 (2), and from Equations (1) and (2) r ′ = r (1 + s ′ · r 2 ) (3). Here, s ″ and s ′ are coefficients determined by the focal length, and s ′ = s ″ / 100. That is, according to the equation (3), an image to be formed at a point distant from the optical axis on the image sensor by a relative distance r is imaged at a point distant by (1 + s ′ · r 2 ) times r due to optical distortion. Can lead.

【0014】撮像素子上の光軸から相対距離r離れた点
Pをメモリ上で考えると、図3(A),(B)に示すよ
うに、例えばNTSC信号の場合、撮像素子の縦横の比
はおよそ3:4であり、映像信号を240×768のフ
ィールドメモリに記憶する場合を考える。撮像素子上で
の相対距離rは、メモリ上では例えば水平方向でR画素
だとすると、垂直方向ではR/2.4画素となり、水平
方向と垂直方向とでは異なった画素数で表されてしま
う。そこで、垂直方向の画素数に、この例であれば2.
4といった換算係数kを乗じ、水平方向、垂直方向とも
に撮像素子上の相対距離rをメモリ上ではR画素といっ
たように、撮像素子上の距離をメモリの画素数に換算で
きるようにする。
Considering the point P on the memory, which is a relative distance r from the optical axis on the image pickup device, as shown in FIGS. 3A and 3B, for example, in the case of an NTSC signal, the aspect ratio of the image pickup device is increased. Is about 3: 4, and the case where a video signal is stored in a 240 × 768 field memory will be considered. The relative distance r on the image pickup device is R / 2.4 pixels in the vertical direction, assuming that there are R pixels in the horizontal direction in the memory, and is represented by different numbers of pixels in the horizontal and vertical directions. Therefore, the number of pixels in the vertical direction is 2.
By multiplying by a conversion coefficient k such as 4, the relative distance r on the image sensor in both the horizontal and vertical directions can be converted to the number of pixels in the memory, such as R pixels on the memory.

【0015】ここで、図4に示すように、撮像素子上の
光軸から相対距離r離れた点Pに結像すべき点が光学歪
により相対距離r’の点P’に結像している場合を考え
る。点Pについては撮像素子上の光軸にあたるメモリの
中心座標から水平方向にx画素、垂直方向にはy画素の
位置、点P’については水平方向にx’画素、垂直方向
にはy’画素の位置としたときのメモリ上でのP,P’
の位置関係を求める。
Here, as shown in FIG. 4, a point to be imaged at a point P distant from the optical axis on the image pickup element by a relative distance r is imaged at a point P ′ at a relative distance r ′ due to optical distortion. Consider the case. For point P, the position of x pixels in the horizontal direction and y pixels in the vertical direction from the center coordinates of the memory corresponding to the optical axis on the image sensor, and for the point P ', x'pixels in the horizontal direction and y'pixels in the vertical direction. P, P'on the memory at the position of
Find the positional relationship of.

【0016】式(3)から点P’は、点Pより(1+
s’・r2 )倍、中心座標から離れていると考えられ
る。ここで、rをメモリ上の大きさで表すと r=c×{x2 +(ky)2 } (4) で表せる。cは撮像素子の大きさとメモリの画素数で決
定する定数である。また、点P’が点Pより中心座標か
ら(1+s’・r2 )倍離れているということは、それ
ぞれの水平、垂直方向の距離も(1+s’・r2 )倍離
れているということなので x’=x(1+s’・r2 ) (5) y’=y(1+s’・r2 ) (6) となる。式(4)、(5)、(6)から x’=x[1+s’・c2 {x2 +(ky)2 }] (7’) y’=y[1+s’・c2 {x2 +(ky)2 }] (8’) ここで、s’c2 を定数Sとまとめれば x’=x[1+S{x2 +(ky)2 }] (7) y’=y[1+S{x2 +(ky)2 }] (8) となる。また、Sは焦点距離によって定まる係数とな
る。
From the equation (3), the point P ′ is (1+
It is considered to be s ′ · r 2 ) times away from the center coordinate. Here, r can be expressed as r = c × {x 2 + (ky) 2 } (4) when expressed by the size on the memory. c is a constant determined by the size of the image sensor and the number of pixels in the memory. Also, the fact that the point P ′ is (1 + s ′ · r 2 ) times away from the center coordinates from the point P means that the distances in the horizontal and vertical directions are also (1 + s ′ · r 2 ) times away. x ′ = x (1 + s ′ · r 2 ) (5) y ′ = y (1 + s ′ · r 2 ) (6) Equation (4), (5), from (6) x '= x [ 1 + s' · c 2 {x 2 + (ky) 2}] (7') y '= y [1 + s' · c 2 {x 2 + (Ky) 2 }] (8 ′) Here, if s′c 2 is put together with a constant S, x ′ = x [1 + S {x 2 + (ky) 2 }] (7) y ′ = y [1 + S { x 2 + (ky) 2 }] (8). Further, S is a coefficient determined by the focal length.

【0017】上記式から明らかなように、メモリの中心
座標から水平、垂直方向にx,y離れた画素P(x,
y)に記憶されるべき画像データは、光学歪みによりそ
れぞれx,yの{1+s(x2 +(ky)2 ))}倍の
x’,y’中心座標から離れた画素P’(x’,y’)
に記憶されていることを示している。よって前述(従来
例にて)説明した如く、画像データをメモリから読み出
すとき、P点を読み出すべきタイミングにP’点に記憶
されている画像データを読み出せば光学歪みが補正され
る。
As is clear from the above equation, the pixel P (x, y, which is separated horizontally and vertically from the center coordinates of the memory by x, y.
The image data to be stored in y) is pixel P ′ (x ′) distant from the center coordinates of x ′ and y ′ times {1 + s (x 2 + (ky) 2 )} times x and y due to optical distortion. , Y ')
Is stored in. Therefore, as described above (in the conventional example), when the image data is read from the memory, the optical distortion is corrected by reading the image data stored at the point P ′ at the timing when the point P should be read.

【0018】上述において、撮像素子上の光軸からの距
離rをメモリの画素x,yで表すと3平方の定理によ
り、r=(x2 +y2 )といった平方根の演算が入る
が、本例では光学歪み特性を式(2)のようにD=
s’’・r2 と近似したので、平方根の演算と2乗の演
算が打ち消し合い演算回路の規模が減る。特に、平方根
の演算は回路規模を要するので効果は大きい。
In the above description, when the distance r from the optical axis on the image pickup device is represented by the pixels x and y of the memory, the square root calculation such as r = (x 2 + y 2 ) is entered by the theorem of 3 squares. Then, the optical distortion characteristic is given by D =
Since it is approximated by s ″ · r 2 , the square root calculation and the square calculation cancel each other, and the scale of the calculation circuit is reduced. In particular, the calculation of the square root requires a large circuit scale, so that it is very effective.

【0019】図5には、本例におけるリードコントロー
ル回路12の回路例が示されている。 図5において、
先ず、電子ズーム処理を行うため、マイコン11からの
Hアドレスピッチデータ(2倍ズームの場合は0.5)
とVアドレスピッチデータ(2倍ズームの場合は0.
5)が、それぞれHアドレスピッチ発生回路1202と
Vアドレスピッチ発生回路1204に供給される。Hス
タートアドレス発生回路1201とVスタートアドレス
発生回路1203は、処理開始アドレスを発生するため
の回路で、本例ではそれぞれ“0”をスタートアドレス
として発生し、これらアドレスは、ラッチ回路1205
と1207にラッチされる。Hスタートアドレス発生回
路1201、Hアドレスピッチ発生回路1202、Vス
タートアドレス発生回路1203、Vアドレスピッチ発
生回路1204は、モード選択信号によってモードが切
り換わる。Hアドレスピッチ発生回路1202とVアド
レスピッチ発生回路1204から出力されるアドレスピ
ッチは、ラッチ回路1206と1208にラッチされ
る。ラッチ回路1205,1206,1207及び12
08は、垂直(V)同期パルスに応答して動作し、それ
ぞれのラッチ回路から読み出されたデータは、選択回路
1209,加算器1211,選択回路1212,加算器
1214のそれぞれの一入力端子に供給される。加算器
1211と1214の出力は、それぞれ水平(H)同期
パルスとV同期パルスに応答してこの入力を切り換え出
力する選択回路1209と1212の他入力端子に供給
される。即ち、選択回路1209,1212は、スター
ト時、ラッチ回路1205,1207からのデータを出
力し、次アドレスからは加算器1211,1214から
のデータを切り換え出力する。選択回路1209と12
12の出力は、それぞれラッチ回路1210と1213
でラッチされ、ラッチ出力はそれぞれクロックCLOC
KとH同期パルスに応答して加算器の他入力として供給
されるとともに、ズーム出力信号として出力される。か
かる構成は、特開平2ー250469に開示されてい
る。
FIG. 5 shows a circuit example of the read control circuit 12 in this example. In FIG.
First, in order to perform electronic zoom processing, H address pitch data from the microcomputer 11 (0.5 in the case of 2 × zoom)
And V address pitch data (0.
5) is supplied to the H address pitch generating circuit 1202 and the V address pitch generating circuit 1204, respectively. The H start address generation circuit 1201 and the V start address generation circuit 1203 are circuits for generating a processing start address. In this example, “0” is generated as a start address, and these addresses are latch circuits 1205.
And 1207 are latched. The modes of the H start address generation circuit 1201, the H address pitch generation circuit 1202, the V start address generation circuit 1203, and the V address pitch generation circuit 1204 are switched by the mode selection signal. The address pitch output from the H address pitch generation circuit 1202 and the V address pitch generation circuit 1204 is latched by the latch circuits 1206 and 1208. Latch circuits 1205, 1206, 1207 and 12
08 operates in response to a vertical (V) synchronizing pulse, and the data read from each latch circuit is input to one input terminal of each of the selection circuit 1209, the adder 1211, the selection circuit 1212, and the adder 1214. Supplied. The outputs of the adders 1211 and 1214 are supplied to the other input terminals of the selection circuits 1209 and 1212 which switch and output the inputs in response to the horizontal (H) sync pulse and the V sync pulse, respectively. That is, the selection circuits 1209 and 1212 output the data from the latch circuits 1205 and 1207 at the start, and switch and output the data from the adders 1211 and 1214 from the next address. Selection circuits 1209 and 12
12 outputs latch circuits 1210 and 1213, respectively.
Are latched by and the latch outputs are clocked by CLOC respectively.
It is supplied as the other input of the adder in response to the K and H sync pulses, and is output as a zoom output signal. Such a structure is disclosed in JP-A-2-250469.

【0020】このような構成により、Hスタートアドレ
ス発生回路1201とVスタートアドレス発生回路12
03で設定されたスタートアドレスである原点(0,
0)からズーム倍率に応じて定まるピッチ単位のアドレ
スがラッチ回路1210と1213から出力される。こ
れらラッチ回路からは水平方向の読み出しタイミングア
ドレスと垂直方向の読み出しタイミングアドレスとして
発生される。画像メモリ5の読み出しタイミングは、テ
レビジョンの走査と同じで左上から右下に読み出す。座
標系を同図(A)のように設定すると、左上が原点
(0,0)、右下が(2x0 , 2y0 )で、中心が(x
0 , y0 )となる。
With such a configuration, the H start address generation circuit 1201 and the V start address generation circuit 12
The start address (0,
From 0), the address in pitch unit determined according to the zoom magnification is output from the latch circuits 1210 and 1213. These latch circuits generate the read timing address in the horizontal direction and the read timing address in the vertical direction. The reading timing of the image memory 5 is the same as that of the scanning of the television, and the reading is performed from the upper left to the lower right. When the coordinate system is set as shown in FIG. 9A, the origin is (0, 0) in the upper left, (2x 0 , 2y 0 ) in the lower right, and the center is (x
0 , y 0 ).

【0021】式(7),(8)は画像メモリ5の中心座
標を原点と考えているのに対し、ラッチ回路1210と
1213から供給される読み出しタイミングアドレス
は、同図(A)のように左上が原点となっている。した
がって、この供給されたアドレスが、中心座標アドレス
(x0 , y0 )からの距離情報となるように、原点移動
させる必要がある。原点移動ブロック回路Aは、かかる
原点移動を実行するもので、ラッチ回路1210と12
13からのアドレス値からそれぞれ中心座標アドレス値
0 , y0 をそれぞれ減じる減算回路1215と121
6から成る。この原点移動処理の結果、座標系は同図
(B)に示すような座標系となる。
In the equations (7) and (8), the center coordinates of the image memory 5 are considered as the origin, whereas the read timing addresses supplied from the latch circuits 1210 and 1213 are as shown in FIG. The upper left is the origin. Therefore, it is necessary to move the origin so that the supplied address becomes the distance information from the central coordinate address (x 0 , y 0 ). The origin movement block circuit A executes such origin movement, and includes the latch circuits 1210 and 12
Subtraction circuits 1215 and 121 for subtracting the center coordinate address values x 0 and y 0 from the address value from 13 respectively.
It consists of six. As a result of this origin movement processing, the coordinate system becomes a coordinate system as shown in FIG.

【0022】次に、距離演算ブロックBで、式(7)と
(8)における距離演算:x2 +(ky)2 を実行す
る。入力xは乗算器1217で二乗された後、加算器1
218に入力され、入力yは乗算器1219で変換係数
kと乗算された後、乗算器1220で二乗され、乗算器
1217と1220の出力は加算器1218で加算され
る。
Next, in the distance calculation block B, the distance calculation in equations (7) and (8): x 2 + (ky) 2 is executed. The input x is squared by the multiplier 1217 and then added by the adder 1
The input y is input to the multiplier 218, the input y is multiplied by the conversion coefficient k in the multiplier 1219, and then squared in the multiplier 1220. The outputs of the multipliers 1217 and 1220 are added in the adder 1218.

【0023】歪み倍率演算ブロックCは、式(7)と
(8)中の[1+s{x2 + (ky) 2 }]を演算する
回路で、乗算器1221により距離演算ブロックBから
供給される{x2 +(ky)2 }にマイコン11から供
給されるズームレンズの焦点距離によって定まる焦点距
離係数Sを乗じ、加算器1222において、該乗算出力
に“1”を加算して出力する。
The distortion magnification calculation block C has the following equation (7):
[1 + s {x in (8)2+ (Ky) 2}] Is calculated
In the circuit, from the distance calculation block B by the multiplier 1221
Supplied {x2+ (Ky)2} From the microcomputer 11
Focal length determined by the focal length of the zoom lens supplied
The separation coefficient S is multiplied, and the multiplication output is added in the adder 1222.
"1" is added to and output.

【0024】式(7)と(8)のx’とy’は、x’,
y’演算ブロックDの乗算器1223と1224により
求められる。乗算器1223と1224は、加算器12
22の出力に対して、減算器1215と1216から出
力されるxとyをそれぞれ乗算する。
X'and y'in the equations (7) and (8) are x ',
It is obtained by the multipliers 1223 and 1224 of the y ′ operation block D. The multipliers 1223 and 1224 are the adders 12
The output of 22 is multiplied by x and y output from the subtracters 1215 and 1216, respectively.

【0025】こうして求められたx’とy’は、同図
(B)に示すように中心を原点としたときのxy座標の
アドレスであり、前述のとおり、画像メモリ5の実際の
原点は左上であるので、原点移動ブロックEの加算器1
225と1226において、それぞれx’,y’中心座
標アドレス値を加算することにより座標を同図(C)に
示すように元に戻す。
The x'and y'obtained in this way are the addresses of the xy coordinates when the center is the origin, as shown in FIG. 7B, and as described above, the actual origin of the image memory 5 is the upper left. Therefore, the adder 1 of the origin movement block E is
At 225 and 1226, the coordinates are returned to their original positions by adding the x ', y'center coordinate address values, respectively, as shown in FIG.

【0026】以上のような処理を介して、画像メモリ5
の画像の歪みに応じた読み出しアドレスが発生され、こ
の読み出しアドレスで画像メモリ5を読み出せば、光学
歪みの補正された画像を得ることができる。
Through the above processing, the image memory 5
A read address corresponding to the distortion of the image is generated, and if the image memory 5 is read at this read address, an image with the optical distortion corrected can be obtained.

【0027】上述の説明における光学歪み特性は様々な
式で近似でき、より高次の項まで近似すればより高い精
度で近似することが可能である。尚、上記説明例におい
ては、メモリの読み出し制御により光学歪みを補正した
がメモリの書き込み制御によってこれを行ってもよいこ
とは勿論である。以上の例では、電子ズーム処理を施し
た後に、歪み補正を行う例を説明しているが、歪み補正
を行なってから電子ズームを行うようにも構成できるこ
とは勿論である。
The optical distortion characteristics in the above description can be approximated by various formulas, and can be approximated with higher accuracy by approximating higher order terms. In the above-described example, the optical distortion is corrected by the memory read control, but it goes without saying that the memory distortion may be corrected by the memory write control. In the above example, the example in which the distortion correction is performed after the electronic zoom process is performed has been described, but it goes without saying that the electronic zoom may be performed after the distortion correction is performed.

【0028】次に、手ぶれ補正処理部と光学歪み補正処
理部を兼用する例を図6と図7を参照して説明する。図
6と図7において、図1と同一符号が付されている回路
構成部は同様な回路部を示す。本例では、図6に示す如
く、手ぶれ補正量を検出するための例えば、角速度セン
サ等の動き検出器13が設けられ、得られた動き情報が
マイコン11に送出され、リードコントロール回路12
で以下に述べるような手ぶれ補正及び光学歪み補正処理
が施される。
Next, an example in which the camera shake correction processing section and the optical distortion correction processing section are used in common will be described with reference to FIGS. 6 and 7. 6 and 7, the circuit components designated by the same reference numerals as those in FIG. 1 are similar circuit components. In this example, as shown in FIG. 6, for example, a motion detector 13 such as an angular velocity sensor for detecting the amount of camera shake correction is provided, and the obtained motion information is sent to the microcomputer 11 to read the read control circuit 12.
Then, camera shake correction and optical distortion correction processing as described below are performed.

【0029】図7において、動き検出器13からの手ぶ
れの動き量に対応した水平方向の動き補正データ(H)
と垂直方向の動き補正データ(V)がHスタートアドレ
ス発生回路1201とVスタートアドレス発生回路12
03に入力され、スタートアドレスHSとVSがラッチ
回路1205と1207にラッチされる。Hアドレスピ
ッチ発生回路1202とVアドレスピッチ発生回路12
04は、手ぶれ発生時の規定領域からの画像のずれ(画
角切れ)を生ずることがないように若干画像をズームさ
せるためのもので、例えば、ピッチ情報HP,VPとし
て0.9の値が出力される。その結果、ラッチ回路12
10と1213から出力されるデータは、それぞれ、H
S,HS+HP,HS+2HP,…とVS,VS+V
P,VS+2VP,…となる。以後の処理は図5と同様
であり、手ぶれ補正と光学歪み補正処理が同時に行われ
ることになる。
In FIG. 7, horizontal motion correction data (H) corresponding to the amount of camera shake from the motion detector 13
And vertical motion correction data (V) are H start address generation circuit 1201 and V start address generation circuit 12
03, the start addresses HS and VS are latched by the latch circuits 1205 and 1207. H address pitch generation circuit 1202 and V address pitch generation circuit 12
Reference numeral 04 is for slightly zooming the image so as not to cause a displacement (angle of view cut) of the image from the prescribed region when a camera shake occurs. For example, a value of 0.9 is set as the pitch information HP and VP. Is output. As a result, the latch circuit 12
The data output from 10 and 1213 are H
S, HS + HP, HS + 2HP, ... and VS, VS + V
P, VS + 2VP, ... The subsequent processing is the same as in FIG. 5, and the camera shake correction and the optical distortion correction processing are performed at the same time.

【0030】以上のように、上述例では、リードコント
ロール回路12以外は全て共通の回路であるが、リード
コントロール回路内では手ぶれ補正または電子ズーム処
理と光学歪補正処理のアドレス発生回路部は独立してい
るので、一方の機能が不要な場合には、どちらか一方の
みを機能させることができる。したがって、省電力化を
図ることもできる。本例によれば、安価で小型化が容易
な映像処理装置が得られる。
As described above, in the above-described example, all circuits are common except for the read control circuit 12, but in the read control circuit, the address generation circuit section for camera shake correction or electronic zoom processing and optical distortion correction processing is independent. Therefore, when one of the functions is unnecessary, only one of them can be operated. Therefore, power saving can be achieved. According to this example, an image processing apparatus that is inexpensive and easy to miniaturize can be obtained.

【0031】ところで、上述のように、光学歪みの補正
は、光学系の焦点距離情報と、結像位置の光軸からの距
離情報とを検出し、この検出情報に基づいて行われる。
一般に蓄積型の光電変換素子を用いて、画像信号を取り
出す場合、被写体光の蓄積時間と出力時間とがズレてし
まい、映像信号の出力期間に光学系の焦点距離情報等を
検出して歪み補正を行うと、出力されている映像信号の
蓄積期間の光学系の焦点距離情報が必ずしも一致せず、
補正に過不足を生ずる。また、光学系の焦点距離は、刻
一刻と変化しているため、リアルタイムに光学系の焦点
距離情報を検出して、歪み補正を行うと同一画面内でも
歪み補正量が異なり不自然な映像となってしまう。
By the way, as described above, the optical distortion is corrected by detecting the focal length information of the optical system and the distance information from the optical axis of the image forming position, and based on this detection information.
Generally, when an image signal is taken out by using a storage type photoelectric conversion element, the storage time of the subject light and the output time are different, and the distortion correction is performed by detecting the focal length information of the optical system during the output period of the video signal. If you do, the focal length information of the optical system during the accumulation period of the output video signal does not necessarily match,
There is an excess or deficiency in the correction. In addition, the focal length of the optical system changes every second, so if the focal length information of the optical system is detected in real time and distortion correction is performed, the amount of distortion correction will differ even within the same screen, resulting in unnatural images. turn into.

【0032】出力される映像信号の蓄積期間の光学系の
情報を、該当する画像の読み出しタイミングまで遅延さ
せることにより、上述問題を解決した例を説明する。本
例では、光学系の焦点距離等の情報を、撮像素子の電荷
蓄積期間の所定タイミングで取り込み、また、読み出し
アドレス発生部でズーム係数Sを与えるタイミングを取
り込んだ画像信号の読み出し開始時に設定している。
An example in which the above problem is solved by delaying the information of the optical system during the accumulation period of the output video signal until the reading timing of the corresponding image will be described. In this example, information such as the focal length of the optical system is fetched at a predetermined timing in the charge accumulation period of the image sensor, and the timing for giving the zoom coefficient S in the read address generator is set at the start of reading the image signal. ing.

【0033】図8を参照して被写体光が画像メモリに記
憶されて読み出されるまでの過程を説明すると、垂直同
期信号Vに応答して光電変換部から垂直転送部への転送
パルスTが送出され、不要電荷排出パルスSにより不要
電荷が排出される。図中、期間Aで不要電荷が排出さ
れ、期間Bでは電荷が蓄積されて光学系情報が取り込ま
れる。また、期間Cでメモリへの転送と書き込みが行わ
れ、期間Dでメモリからの読み出しが行われ、垂直同期
のタイミングでズーム係数Sが設定される。すなわち、
本例では、期間Bで得られた光学系情報を1画面分遅ら
せてメモリから読み出して係数を設定している。
The process until the subject light is stored in the image memory and read out will be described with reference to FIG. 8. In response to the vertical synchronizing signal V, a transfer pulse T is sent from the photoelectric conversion unit to the vertical transfer unit. The unnecessary charges are discharged by the unnecessary charge discharging pulse S. In the figure, unnecessary charges are discharged in period A, and charges are accumulated in period B to take in optical system information. In addition, transfer and writing to the memory are performed in the period C, reading from the memory is performed in the period D, and the zoom coefficient S is set at the timing of vertical synchronization. That is,
In this example, the optical system information obtained in the period B is delayed by one screen and read from the memory to set the coefficient.

【0034】マイコンによる光学系情報の検出回路例が
図9に示されている。ズーム比により変化する光学系1
のズームレンズの位置情報は、ズームレンズの位置に応
動する移動接片をもち、一端が接地されている可変抵抗
器RVと抵抗R1に直列接続された外部電源E1が設け
られ、ズームレンズの移動により抵抗値が変化する可変
抵抗RVと抵抗R1の接続点の電圧を、上記タイミング
信号V,T,Sが供給されているマイコン1内の電圧検
出器111で検出する。マイコン11はタイミング制御
回路114を有し、各部に上記信号V,T,Sに基づく
タイミング信号を供給する。電圧検出部111は、期間
Bでのズームレンズの移動距離を求め、電圧/焦点距離
換算部112で、焦点距離情報を得た後、パラメータ設
定部113でタイミング信号Vのタイミングでパラメー
タが設定されて、係数Sが出力される。
FIG. 9 shows an example of a circuit for detecting optical system information by the microcomputer. Optical system 1 that changes depending on the zoom ratio
The position information of the zoom lens is provided with an external power source E1 connected in series with a variable resistor RV having a movable contact piece that responds to the position of the zoom lens, one end of which is grounded, and the resistor R1. The voltage at the connection point between the variable resistor RV and the resistor R1 whose resistance value changes according to is detected by the voltage detector 111 in the microcomputer 1 to which the timing signals V, T and S are supplied. The microcomputer 11 has a timing control circuit 114, and supplies a timing signal based on the signals V, T, S to each section. The voltage detection unit 111 obtains the moving distance of the zoom lens in the period B, the voltage / focal length conversion unit 112 obtains the focal length information, and then the parameter setting unit 113 sets the parameter at the timing of the timing signal V. Then, the coefficient S is output.

【0035】上述の例以外に、画像メモリへの画像情報
の書き込み時点で光学歪みを補正することもできる。こ
うすることにより、蓄積期間の情報がそのまま書き込み
期間に生かされるので、より高精度な歪み補正が可能と
なる。
In addition to the above example, the optical distortion can be corrected at the time of writing the image information in the image memory. By doing so, the information of the accumulation period is used as it is in the writing period, so that more accurate distortion correction becomes possible.

【0036】次に、本発明の実施例として、光学歪み補
正を行う際、焦点距離等の光学系の状態変化に対する歪
量変化の割合に基づいて、視覚的に目立たない範囲で離
散的に歪みの補正係数を求めることによりメモリ容量の
削減を図る例を説明する。
Next, as an embodiment of the present invention, when performing optical distortion correction, the distortion is discretely distorted in a visually inconspicuous range based on the ratio of the distortion amount change to the change of the state of the optical system such as the focal length. An example will be described in which the memory capacity is reduced by obtaining the correction coefficient of.

【0037】上述のように、光学歪みは光学系の焦点距
離と、結像位置の光軸からの距離により規定されるの
で、焦点距離が変われば補正の度合いも変える必要があ
る。しかしながら、一般的に人間が光学歪みを検知でき
るのは歪の割合が1%以上であると言われている。した
がって、焦点距離によって逐一補正状態を変更するのは
非常に繁雑であり、また焦点距離検出誤差による補正の
ふらつき等が生じてしまうことになる。
As described above, since the optical distortion is defined by the focal length of the optical system and the distance from the optical axis of the image forming position, it is necessary to change the degree of correction if the focal length changes. However, it is generally said that human beings can detect optical distortion when the distortion ratio is 1% or more. Therefore, it is very complicated to change the correction state one by one according to the focal length, and the fluctuation of the correction due to the focal length detection error may occur.

【0038】そこで、本実施例では、補正すべきステッ
プを必要以上に細かく設定することなく、視覚的に違和
感のない範囲内では、光学歪み補正の変更を行わず、つ
まり、光学歪みが予め定めた範囲内にある場合には、同
一の補正係数を使用することにより、光学歪み補正に必
要なメモリ容量と演算量を削減している。
Therefore, in this embodiment, the optical distortion correction is not changed within a range where there is no visual discomfort without setting the steps to be corrected more finely than necessary, that is, the optical distortion is predetermined. If it is within the range, the same correction coefficient is used to reduce the memory capacity and the amount of calculation required for optical distortion correction.

【0039】図10には、光学系の焦点距離と歪量との
関係が示されている。図10について、焦点距離:6.
5mm〜52mm(8倍)の範囲で考えると、歪の割合
は、−18%〜+2.5%の範囲にあり、補正後の歪の
割合が±1%以内になるようにするには、 {2.5−(−18)}/{1−(−1)}=10.25 すなわち、少なくとも11段階に分割した各分割範囲で
焦点距離を検出すれば良い。例えば、図11に示すよう
に、歪み量が+1%〜−1%の範囲(焦点距離が1〜2
の範囲)、歪量が−1%〜−3%の範囲(焦点距離が2
〜3の範囲)、−3%〜−5%の範囲に分割し、焦点距
離が各分割範囲内にあるときには、歪み補正のための係
数は同一値を用いるようにする。図2からr=100の
点の歪量が最大となるので、r=1における歪み率が検
知限度に収まれば、r<1の範囲では歪みは更に小さく
なる。
FIG. 10 shows the relationship between the focal length of the optical system and the amount of distortion. Regarding FIG. 10, focal length: 6.
Considering the range of 5 mm to 52 mm (8 times), the strain rate is in the range of -18% to + 2.5%, and in order to keep the corrected strain rate within ± 1%, {2.5-(-18)} / {1-(-1)} = 10.25 That is, the focal length may be detected in each of the division ranges divided into at least 11 stages. For example, as shown in FIG. 11, the distortion amount is in the range of + 1% to -1% (the focal length is 1 to 2).
Range), the distortion amount is in the range of -1% to -3% (the focal length is 2
.About.3), -3% to -5%, and when the focal length is within each divided range, the same coefficient is used for distortion correction. From FIG. 2, the amount of strain at the point of r = 100 is the maximum, so if the strain rate at r = 1 falls within the detection limit, the strain becomes even smaller in the range of r <1.

【0040】図12を参照して本実施例のマイコン内の
動作処理手順を説明すると、図9のズームレンズ位置検
出手段と同様な手段により、対応する電圧が検出され
(ステップS1)、検出された電圧から焦点距離が換算
され(ステップS2)、焦点距離ゾーンが判定される
(ステップS3)。このゾーンは上記±1%の歪み量変
化範囲に対応する焦点距離変化範囲の分割範囲である。
続いて、ゾーンの変更の有無が判定され(ステップS
4)、なければ、ステップS1の処理に戻り、ゾーン変
更が有れば係数Sを演算して(ステップS5)、リード
アドレス発生ブロックに送出する。
The operation processing procedure in the microcomputer of this embodiment will be described with reference to FIG. 12. The corresponding voltage is detected by the same means as the zoom lens position detecting means of FIG. 9 (step S1) and detected. The focal length is converted from the applied voltage (step S2), and the focal length zone is determined (step S3). This zone is a divided range of the focal length change range corresponding to the strain amount change range of ± 1%.
Then, it is determined whether or not the zone is changed (step S
4) If not, the process returns to step S1, and if there is a zone change, the coefficient S is calculated (step S5) and the coefficient is sent to the read address generation block.

【0041】次に、光学系歪みを電気的に補正する際に
生ずる画面の切れ(画角切れ)を電子ズームを同時に行
うことにより除去する例を説明する。前述のように、光
学歪みのうち糸まき型はTele側操作時に生じ易く、
たる型歪みはWide側操作時に生じ易い。ここで、糸
まき型歪み発生時には、図13(A)のように本来の画
像領域(長方形領域)左上部の角部点Aが従来の光学歪
補正により、同図(B)のように内側に移動することに
なり、同図斜線部領域は、光電変換素子のない部分から
の信号で、画像のない画角切れが生ずる。そこで、本例
では、光学歪み補正と同時に電子ズームを行ってこの画
角切れを防止している。電子ズーム倍率は、大きい値に
する必要はなく、画角切れが生じない程度の小さい値に
設定すれば良い。
Next, a description will be given of an example in which a screen break (a break in the angle of view) that occurs when electrically correcting the optical system distortion is removed by simultaneously performing the electronic zoom. As described above, the thread-winding type among the optical distortions is likely to occur during operation on the Tele side,
The barrel distortion is likely to occur when operating on the Wide side. Here, at the time of occurrence of the thread winding type distortion, the corner point A at the upper left part of the original image area (rectangular area) is inward as shown in FIG. 13 (B) by the conventional optical distortion correction as shown in FIG. 13 (A). Therefore, the shaded area in the figure is a signal from a portion without a photoelectric conversion element, and the angle of view with no image is cut off. Therefore, in this example, the electronic zoom is performed at the same time as the optical distortion correction to prevent the disconnection of the angle of view. The electronic zoom magnification does not have to be a large value, and may be set to a small value that does not cause a break in the angle of view.

【0042】そのためのハードウェア構成は、図5の構
成と同一であり、Hアドレスピッチ発生回路1202と
Vアドレスピッチ発生回路1204に設定するズーム倍
率設定用のピッチとして例えば0.9の値が設定されて
いる。このときの動作としては、当該時点でのf値を入
力したマイコンは、このf値に基づく歪み補正のための
補正量を演算するとともに、これに応じた画角切れ防止
のための電子ズーム用のピッチをH,Vともに出力す
る。
The hardware configuration therefor is the same as that of FIG. 5, and a value of 0.9 is set as the pitch for setting the zoom magnification set in the H address pitch generation circuit 1202 and the V address pitch generation circuit 1204. Has been done. As the operation at this time, the microcomputer that has input the f value at that time calculates a correction amount for distortion correction based on the f value, and for the electronic zoom for preventing the angle of view cutoff corresponding to this. Both the pitches of H and V are output.

【0043】他の例は、光学歪み補正を行う映像処理装
置において、自動合焦制御(AF)、自動露出制御(A
E)及び自動ホワイトバランス制御(AWB)のいずれ
かまたは全部の制御をも可能とするものであり、該制御
を行う際に与えられる重み付け係数を、画像領域の分割
エリア毎に歪み補正量に応じて変化させたり、歪み補正
されたその映像信号を用いて制御のための基礎情報の検
出と各制御を行う例である。
Another example is an automatic focus control (AF), automatic exposure control (A
E) and / or automatic white balance control (AWB) can be controlled, and the weighting coefficient given when the control is performed depends on the distortion correction amount for each divided area of the image area. This is an example in which basic information for control and each control are performed by using the video signal that has been changed or changed and distortion-corrected.

【0044】以下の制御例は、上記AF制御、AE制御
及びAWB制御の各制御対象について適用できるが、一
例としてAF制御について説明する。第1の例は、各分
割エリア毎のコントラスト情報(制御基礎パラメータ)
に含まれる歪みによる誤差の影響を、エリア毎の重み付
け値を歪み量に応じて変化させることにより、結果とし
て得られる重み付け後のコントラスト情報を歪みによら
ずに安定して得るとともに、安定な自動焦点(AF)制
御を可能とする。また、歪み補正後の画像情報を用いれ
ば、歪によらず安定したコントラスト情報が得られ、安
定なAF制御が可能となる。したがって、ズーム比によ
らず、安定したAF制御が可能となり、歪みのない画像
情報を得ることができ、歪み補正レンズのない光学系を
使用できるので小型、軽量化が可能である。
The following control example can be applied to each of the control objects of the AF control, the AE control and the AWB control, but the AF control will be described as an example. The first example is contrast information (basic control parameters) for each divided area.
By changing the weighting value for each area according to the amount of distortion, the effect of the error due to the distortion included in is obtained stably as the resulting weighted contrast information without distortion, and stable automatic Enables focus (AF) control. Further, if the image information after distortion correction is used, stable contrast information can be obtained regardless of distortion, and stable AF control can be performed. Therefore, stable AF control can be performed irrespective of the zoom ratio, image information without distortion can be obtained, and an optical system without a distortion correction lens can be used, so that the size and weight can be reduced.

【0045】第2の例は、コントラスト情報の検出に用
いるセンサとして映像信号を得るための撮像素子とは別
のセンサを用いるもので、そのセンサに入射される光が
撮像素子に結像するズームレンズを透過したTTL式の
ものであれば、同様の効果が得られる。 この第2の例
では、電子的に歪み補正された画像情報を用いて、各分
割エリア毎のコントラスト情報を得ているので、歪みに
よる影響を受けることなく、ズーム比によらず安定した
AF制御が可能となり、歪み補正を映像処理装置内部に
含ませることにより、歪みのない画像情報を得ることが
でき、同様に歪み補正レンズのない光学系を使用できる
ので、小型、軽量化も可能となる。上述において、制御
対象は、焦点(AF)制御だけでなく、露出(AE)制
御、ホワイトバランス(AWB)制御についても、制御
基準パラメータとして輝度情報や色情報を用いれば同様
に行うことができる。
In the second example, a sensor other than the image pickup device for obtaining a video signal is used as a sensor used for detecting contrast information, and the zoom which the light incident on the sensor forms an image on the image pickup device. The same effect can be obtained as long as it is of the TTL type that passes through the lens. In the second example, since the image information that has been electronically distortion-corrected is used to obtain the contrast information for each divided area, stable AF control is performed regardless of the zoom ratio without being affected by the distortion. By including the distortion correction inside the image processing device, it is possible to obtain image information without distortion, and similarly, since an optical system without a distortion correction lens can be used, it is possible to reduce the size and weight. . In the above description, not only the focus (AF) control but also the exposure (AE) control and the white balance (AWB) control can be performed in the same manner as the control target by using the brightness information and the color information as the control reference parameters.

【0046】第1の例について図14を参照して説明す
る。図14において、図1と同一符号が付されている構
成部は同様機能を有する構成部を示す。光学系1には、
ズームレンズの位置情報を検出するズームエンコーダ1
A,ズームレンズ位置を駆動制御するズーム駆動部1B
と、焦点制御部1C及び絞り駆動部1Dが備えられてい
る。ズームエンコーダ1Aからのズームレンズ位置情報
がマイコン11に供給され、ズーム制御信号、焦点制御
信号及び絞り制御信号がマイコン11からズーム駆動部
1B、焦点制御部1C及び絞り制御部1Dに送出され
る。
The first example will be described with reference to FIG. In FIG. 14, components designated by the same reference numerals as those in FIG. 1 are components having the same function. The optical system 1 has
Zoom encoder 1 for detecting position information of the zoom lens
A, a zoom drive unit 1B for driving and controlling the zoom lens position
And a focus control unit 1C and an aperture drive unit 1D. The zoom lens position information from the zoom encoder 1A is supplied to the microcomputer 11, and the zoom control signal, the focus control signal and the aperture control signal are sent from the microcomputer 11 to the zoom drive unit 1B, the focus control unit 1C and the aperture control unit 1D.

【0047】マイコン11は、後述するように、分割エ
リア毎のコントラスト信号、輝度信号及び色信号の少な
くとも1つの信号を受け、補正ROM14に格納されて
いる各エリア情報に乗算すべき適切な補正データ(重み
付けデータ)を読み出し、補正データをリードコントロ
ール回路12に送出する。リードコントロール回路12
は、前述のような処理を補正ROM15に格納されてい
るデータに基づいて画像メモリ5と補間回路6に制御信
号を送出する。補正ROM14と15は、マイコン11
やリードコントロール回路12内での演算で必要なデー
タを求める場合には不要である。
As will be described later, the microcomputer 11 receives at least one signal of a contrast signal, a luminance signal and a color signal for each divided area, and appropriate correction data to be multiplied by each area information stored in the correction ROM 14. The (weighting data) is read and the correction data is sent to the read control circuit 12. Read control circuit 12
Sends a control signal to the image memory 5 and the interpolation circuit 6 based on the data stored in the correction ROM 15 through the above-described processing. The correction ROMs 14 and 15 include the microcomputer 11
It is not necessary to obtain necessary data by calculation in the or read control circuit 12.

【0048】撮像プロセス回路3から出力されるY信号
は、そのまま、またフィルター16によりコントラスト
情報信号に変換されて、セレクタ17に供給されるとと
もに、C信号もセレクタ17に供給される。セレクタ1
7は、マイコン11からの選択信号に応答してY信号、
コントラスト信号、C信号のうち必要な情報データを選
択する。エリア積分回路18は、セレクタ17で選択さ
れた信号を分割エリア毎に積分して、エリア積分された
上記信号から得られる輝度信号や色信号をマイコン11
に供給して、後述するように、コントラスト情報に基づ
く焦点制御、輝度情報に基づく露出制御及び色情報(色
差信号であるRーY信号やBーY信号等)に基づくホワ
イトバランス制御処理を行う。
The Y signal output from the image pickup process circuit 3 is directly supplied to the selector 17 after being converted into a contrast information signal by the filter 16 and supplied to the selector 17 as well. Selector 1
7 is a Y signal in response to a selection signal from the microcomputer 11,
Necessary information data is selected from the contrast signal and the C signal. The area integrator circuit 18 integrates the signal selected by the selector 17 for each divided area, and outputs the brightness signal and the color signal obtained from the area integrated signal to the microcomputer 11
As will be described later, focus control based on contrast information, exposure control based on luminance information, and white balance control processing based on color information (color difference signals such as RY signal and BY signal) are performed. .

【0049】図15の(A)と(B)には、糸まき型歪
み発生前における各分割エリアの重み付け値と、たる型
歪み発生前における各分割エリアの重み付け値の例が示
されている。この重み付け値は、もともと画面の略中央
部に主要な被写体が存在してくるであろうことを考慮し
てAF、AE及びAWB等のために設定された演算値の
一例を示すものである。図からも明らかなように、糸ま
き型歪み発生時には、周辺部の画像ほど歪んでいるの
で、理想画像に対する補正はその分だけ大きく行わなけ
ればならず、よって周辺部で重み付け値を増大させる必
要がある。
15 (A) and 15 (B) show examples of weighting values for each divided area before the occurrence of yarn winding distortion and weighting values for each divided area before the occurrence of barrel distortion. . This weighting value shows an example of the calculated value originally set for AF, AE, AWB, etc. in consideration of the possibility that a main subject will be present in the approximate center of the screen. As is clear from the figure, when the thread-wound type distortion occurs, the image in the peripheral portion is distorted, so the correction for the ideal image must be performed correspondingly, and therefore the weighting value must be increased in the peripheral portion. There is.

【0050】たる型歪み発生時の重み付け値の変化とそ
の補正例が図16に示されている。本例では、少なくと
も画素から成るブロックのそれぞれに重み付け値を設定
しているが、4×4ブロックを1分割エリアとして扱
う。エリアAとエリアBが、たる型歪みにより変形して
それぞれエリアCとエリアDとなる。歪みのない場合の
各エリアの重み付けは、 エリアA:{(0×3)+(1×3)+(2×4)+(3×3)+(4×2) +(5×1)}/16(=)2 ・・・・(a) エリアB:{(7×1)+(8×2)+(9×3)+(10×4)+(11× 3)+(12×2)+13}/16(=)10 ・・・・(b) 歪み発生後の各エリアの重み付けは、 エリアC:{(7×4)+(8×4)+(9×3)}/11(=)8 ・・・・(c) エリアD:{(11×5)+(12×3)+(13×2)}/10(=)12 ・・・・(d) となり、同一の画像成分であるにもかかわらず、重み付
け係数が変化していることがわかる。そこで、同一の画
像に対して歪みの発生前後で同一の重み付けを行うため
に、補正された重み付け係数を求める。即ち、補正後の
各エリアの重み付けは、エリアAは、元々画像がないか
ら、 エリアA:(画素データ×画素の数)/画素の数 =(0×16)/16=0 エリアB:{((a)×エリアB内に投影されているエ
リアCの画素数)+((b)×エリアB内に投影されて
いるエリアDの画素数)/(エリアB内に投影されてい
るエリアCとDの総画素数) 即ち、 ={(2×6)+(10×6)}/12=6 したがって、エリアBに対しては補正係数を6/10と
すれば良い。このように重み付け値の補正は、各分割エ
リアに含まれる歪みのない場合の重み付け値と小ブロッ
クの画素数の積の平均値を補正された重み付け値とする
ように行われる。
FIG. 16 shows a change in weighting value when barrel distortion occurs and an example of correction thereof. In this example, the weighting value is set for each block including at least pixels, but a 4 × 4 block is treated as one divided area. Area A and area B are deformed by barrel distortion to become area C and area D, respectively. The weighting of each area when there is no distortion is as follows: Area A: {(0x3) + (1x3) + (2x4) + (3x3) + (4x2) + (5x1) } / 16 (=) 2 ... (a) Area B: {(7x1) + (8x2) + (9x3) + (10x4) + (11x3) + (12 × 2) +13} / 16 (=) 10 ... (b) The weighting of each area after the distortion is generated is area C: {(7 × 4) + (8 × 4) + (9 × 3)} /11(=)8...(c) Area D: {(11 * 5) + (12 * 3) + (13 * 2)} / 10 (=) 12 ... (d) It can be seen that the weighting coefficient has changed despite the same image component. Therefore, in order to perform the same weighting on the same image before and after the occurrence of distortion, a corrected weighting coefficient is obtained. That is, the weighting of each area after the correction is as follows: Area A originally has no image, and therefore Area A: (pixel data × number of pixels) / number of pixels = (0 × 16) / 16 = 0 area B: { ((A) × number of pixels of area C projected in area B) + ((b) × number of pixels of area D projected in area B) / (area projected in area B Total number of pixels of C and D) That is, = {(2 × 6) + (10 × 6)} / 12 = 6 Therefore, for area B, the correction coefficient may be set to 6/10. In this way, the correction of the weighting value is performed so that the average value of the products of the weighting value in the case where there is no distortion included in each divided area and the number of pixels of the small blocks is taken as the corrected weighting value.

【0051】図17を参照して歪み補正前の信号を用い
た例の処理手順を説明すると、先ず、自動制御モードで
あるか否かを判定し(ステップS11)、自動制御モー
ドであると判定したときには、ズームエンコーダ1Aか
らのズーム位置情報をマイコン11が読み取り(ステッ
プS12)、歪み補正量をコード化する(ステップS1
3)。次に、歪み補正コードによるテーブルデータを参
照して各エリアの重み付け値の補正係数を読み出し(ス
テップS14)、マイコン内に別に格納されている重み
付けデータに補正係数を乗算して各エリアの重み付け値
を補正し(ステップS15)、セレクタ17によりエリ
ア積分器18の入力を切り換え(ステップS16)、必
要な制御基準パラメータ(コントラスト情報、輝度情
報、色情報等)を積分器18によりエリア積分して(ス
テップS17)、該エリア積分データをマイコンに供給
する(マイコン11による読み込み)(ステップS1
8)。続いて補正された重み付けデータを参照し(ステ
ップS19)、各エリアの積分データの重み付け処理を
施し(ステップS20)、新たな制御データを演算す
る。そして、重み付けされたエリア積分データから制御
データを決定する(ステップS21)。その後、制御デ
ータを出力して(ステップS22)、ステップS11の
処理に戻る。
The processing procedure of the example using the signal before distortion correction will be described with reference to FIG. 17. First, it is determined whether or not the automatic control mode is set (step S11), and it is determined that the automatic control mode is set. If so, the microcomputer 11 reads the zoom position information from the zoom encoder 1A (step S12) and codes the distortion correction amount (step S1).
3). Next, the correction coefficient of the weighting value of each area is read by referring to the table data of the distortion correction code (step S14), and the weighting data separately stored in the microcomputer is multiplied by the correction coefficient to calculate the weighting value of each area. Is corrected (step S15), the input of the area integrator 18 is switched by the selector 17 (step S16), and necessary control reference parameters (contrast information, brightness information, color information, etc.) are integrated by the integrator 18 ( Step S17), the area integration data is supplied to the microcomputer (read by the microcomputer 11) (step S1
8). Subsequently, the corrected weighting data is referred to (step S19), the integration data of each area is weighted (step S20), and new control data is calculated. Then, the control data is determined from the weighted area integration data (step S21). Then, the control data is output (step S22), and the process returns to step S11.

【0052】次に、上記第2の例として、歪み補正され
た信号を用いる例について説明する。 図18は、本例
の構成ブロック図であり、図14と同一符号が付されて
いる回路部は同様機能を有する回路部である。本例で
は、補間回路6で歪み補正されたY信号とC信号を用
い、フィルタ16でコントラスト情報が得られ、セレク
タ17には歪み補正されたコントラスト信号、Y信号、
C信号の制御基準パラメータが供給され、マイコン11
からの選択信号により、所望の信号がエリア積分器18
に供給される。エリア積分器18は、入力信号をエリア
積分して積分値をマイコン11に供給する。
Next, as the second example, an example using a signal whose distortion has been corrected will be described. FIG. 18 is a block diagram of the configuration of this example, and the circuit parts denoted by the same reference numerals as those in FIG. 14 are circuit parts having the same function. In this example, the Y signal and the C signal whose distortion is corrected by the interpolation circuit 6 are used, the contrast information is obtained by the filter 16, and the selector 17 receives the distortion-corrected contrast signal, the Y signal,
The control reference parameter of the C signal is supplied to the microcomputer 11
Depending on the selection signal from the
Is supplied to. The area integrator 18 performs area integration on the input signal and supplies the integrated value to the microcomputer 11.

【0053】図19を参照して、本例の処理手順を説明
する。先ず、自動制御モードであるか否かを判定し(ス
テップS31)、自動制御モードであれば、エリア積分
器18の入力を切り換え、必要な制御基準パラメータを
出力し(ステップS32)、このパラメータ信号エリア
積分器でエリア積分し(ステップS33)、エリア積分
データの演算処理を施す(ステップS34)。次に、重
み付けデータを参照し(ステップS35)、各エリアの
積分データの重み付け処理を行い(ステップS36)、
重み付けされたエリア積分データから制御データを求め
る新たな制御データの演算処理を施し(ステップS3
7)、制御データを出力した後(ステップS38)、ス
テップS31の処理に戻る。
The processing procedure of this embodiment will be described with reference to FIG. First, it is determined whether or not it is the automatic control mode (step S31), and if it is the automatic control mode, the input of the area integrator 18 is switched and the necessary control reference parameter is output (step S32). Area integration is performed by the area integrator (step S33), and area integration data is calculated (step S34). Next, the weighting data is referred to (step S35), the integration data of each area is weighted (step S36),
A new control data calculation process is performed to obtain control data from the weighted area integration data (step S3).
7) After outputting the control data (step S38), the process returns to step S31.

【0054】而して、本発明においては、上記実施例や
他の例を1つ又は複数種組み合わせることによって使用
し得ること勿論であり、本発明の要旨を逸脱しない範囲
で種々変更が可能である。
In the present invention, it goes without saying that one or more of the above-mentioned embodiments and other examples can be used in combination, and various changes can be made without departing from the gist of the present invention. is there.

【0055】[0055]

【発明の効果】以上説明したように本発明による映像処
理装置によれば、視覚的に違和感が少なく且つ制御動作
の簡素化が計られた光学歪み補正機能を有する。
As described above, the image processing apparatus according to the present invention has an optical distortion correction function with which there is little visual discomfort and the control operation is simplified.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に関連する映像処理装置の構成ブロック
図である。
FIG. 1 is a configuration block diagram of a video processing apparatus related to the present invention.

【図2】ズームレンズの光学歪み特性の一例を示す図で
ある。
FIG. 2 is a diagram showing an example of optical distortion characteristics of a zoom lens.

【図3】本発明に関連する装置の動作を説明するための
図である。
FIG. 3 is a diagram for explaining the operation of the device related to the present invention.

【図4】本発明に関連する装置の動作を説明するための
図である。
FIG. 4 is a diagram for explaining the operation of the device related to the present invention.

【図5】図1に示す例における電子ズーム機能と光学歪
み補正機能を実現する回路例である。
5 is an example of a circuit that realizes an electronic zoom function and an optical distortion correction function in the example shown in FIG.

【図6】本発明に関連する他の例における映像処理装置
の構成ブロック図である。
FIG. 6 is a configuration block diagram of a video processing device in another example related to the present invention.

【図7】図6に示す例における手ぶれ補正機能と光学歪
み補正機能を実現する回路例である。
7 is an example of a circuit that realizes a camera shake correction function and an optical distortion correction function in the example shown in FIG.

【図8】本発明に関連する映像処理装置の動作を説明す
るためのタイミングチャートである。
FIG. 8 is a timing chart for explaining the operation of the video processing device related to the present invention.

【図9】図8に示す例におけるズームレンズ位置情報の
検出部の構成ブロック図である。
9 is a configuration block diagram of a detection unit of zoom lens position information in the example shown in FIG.

【図10】本発明の実施例を説明するための光学系の焦
点距離と歪量との関係を示す図である。
FIG. 10 is a diagram showing the relationship between the focal length and the distortion amount of the optical system for explaining the embodiment of the present invention.

【図11】本発明の実施例を説明するための光学系の焦
点距離と歪み率との関係を示す図である。
FIG. 11 is a diagram showing the relationship between the focal length and the distortion rate of the optical system for explaining the example of the present invention.

【図12】本発明の実施例の構成と動作処理手順を示す
図である。
FIG. 12 is a diagram showing a configuration and an operation processing procedure of an embodiment of the present invention.

【図13】本発明に関連する他の例を説明するための図
である。
FIG. 13 is a diagram for explaining another example related to the present invention.

【図14】本発明に関連する他の例の構成ブロック図で
ある。
FIG. 14 is a configuration block diagram of another example related to the present invention.

【図15】図14に示す例を説明するための図である。15 is a diagram for explaining the example shown in FIG.

【図16】図14に示す例を説明するための図である。16 is a diagram for explaining the example shown in FIG.

【図17】図14に示す例の動作処理手順を示すフロー
チャートである。
17 is a flowchart showing an operation processing procedure of the example shown in FIG.

【図18】図14に示す例の基準原理に基づく他の構成
例ブロック図である。
FIG. 18 is a block diagram of another configuration example based on the reference principle of the example shown in FIG.

【図19】図18に示す例の動作処理手順を示すフロー
チャートである。
19 is a flowchart showing an operation processing procedure of the example shown in FIG.

【図20】光学系歪みの例を示す図である。FIG. 20 is a diagram showing an example of optical system distortion.

【図21】光学系歪みの補正を説明するための図であ
る。
FIG. 21 is a diagram for explaining correction of optical system distortion.

【図22】従来の映像処理装置の構成ブロック図であ
る。
FIG. 22 is a configuration block diagram of a conventional video processing device.

【符号の説明】[Explanation of symbols]

1 光学系 2 撮像素子 3 撮像プロセス回路 4 A/Dコンバータ 5 画像メモリ 6 補間回路 7 D/Aコンバータ 8 TG回路 9 SSG回路 10 ライトコントロール回路 11 マイコン 12A,12 リードコントロール回路 13 動き検出器 14,15、19 補正ROM 16 フィルタ 17 セレクタ 18 エリア積分器 1 Optical system 2 Image sensor 3 Imaging process circuit 4 A / D converter 5 Image memory 6 Interpolation circuit 7 D / A converter 8 TG circuit 9 SSG circuit 10 Write control circuit 11 Microcomputer 12A, 12 Read control circuit 13 Motion detector 14, 15, 19 Correction ROM 16 Filter 17 Selector 18 Area integrator

───────────────────────────────────────────────────── フロントページの続き (72)発明者 師橋 大吉 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 井上 淳 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Daikichi Shimohashi, Inventor Daikichi Shibaya, Tokyo 2-34-2 Hatagaya, Olympus Optical Co., Ltd. (72) Atsushi Inoue 2-43-2, Hatagaya, Shibuya-ku, Tokyo Olympus Optical Industry Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】光学系による像を光電変換して得た映像信
号をこの映像信号に対応する映像データに変換する変換
手段と、上記変換手段による映像データを当該記憶手段
に書き込み又は読み出しするに際して該映像データに上
記光学系による像の歪みに対応した補正を与える歪み補
正手段と、を備えた映像処理装置において、 上記歪み補正手段は、当該光学系の焦点距離の変化に対
応する像の歪み程度の変化が所定範囲内にあるような焦
点距離区間毎に適用すべきデータとしての補正用データ
を当該映像信号の補正処理の基礎となるデータとして与
えるものであることを特徴とする映像処理装置。
1. A conversion means for converting a video signal obtained by photoelectrically converting an image by an optical system into video data corresponding to the video signal, and writing or reading the video data by the conversion means into the storage means. An image processing apparatus comprising: a distortion correction unit that applies correction to the image data corresponding to an image distortion caused by the optical system, wherein the distortion correction unit includes an image distortion corresponding to a change in a focal length of the optical system. A video processing device, wherein correction data as data to be applied for each focal length section having a degree change within a predetermined range is given as data that is a basis of correction processing of the video signal. .
JP25789193A 1993-10-15 1993-10-15 Video processing equipment Expired - Lifetime JP3548204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25789193A JP3548204B2 (en) 1993-10-15 1993-10-15 Video processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25789193A JP3548204B2 (en) 1993-10-15 1993-10-15 Video processing equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP4751393A Division JP3332977B2 (en) 1993-02-10 1993-02-10 Video equipment

Publications (2)

Publication Number Publication Date
JPH06237406A true JPH06237406A (en) 1994-08-23
JP3548204B2 JP3548204B2 (en) 2004-07-28

Family

ID=17312627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25789193A Expired - Lifetime JP3548204B2 (en) 1993-10-15 1993-10-15 Video processing equipment

Country Status (1)

Country Link
JP (1) JP3548204B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017419A (en) * 2007-07-09 2009-01-22 Canon Inc Imaging apparatus and interchangeable lens device
JP2011101263A (en) * 2009-11-06 2011-05-19 Olympus Imaging Corp Imaging apparatus and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017419A (en) * 2007-07-09 2009-01-22 Canon Inc Imaging apparatus and interchangeable lens device
US8194157B2 (en) 2007-07-09 2012-06-05 Canon Kabushiki Kaisha Image-pickup apparatus and a zoom lens for the image-pickup apparatus, with distortion correction
US8692908B2 (en) 2007-07-09 2014-04-08 Canon Kabushiki Kaisha Image-pickup apparatus and a zoom lens for the image-pickup apparatus, with distortion correction
JP2011101263A (en) * 2009-11-06 2011-05-19 Olympus Imaging Corp Imaging apparatus and method
US8913173B2 (en) 2009-11-06 2014-12-16 Olympus Imaging Corp. Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP3548204B2 (en) 2004-07-28

Similar Documents

Publication Publication Date Title
US6982756B2 (en) Digital camera, image signal processing method and recording medium for the same
US6342918B1 (en) Image-shake correcting device having first and second correcting means and control means for proportionately applying same
US8441559B2 (en) Imaging apparatus and correction method of image data
US6882754B2 (en) Image signal processor with adaptive noise reduction and an image signal processing method therefor
US8350951B2 (en) Image sensing apparatus and image data correction method
US5990942A (en) Photographing apparatus using image information for blurring correction
JP3297511B2 (en) Video processing device
JP3260929B2 (en) Video processing device
JP3332977B2 (en) Video equipment
US20030218687A1 (en) Image sensing apparatus and image sensing method
JP3548204B2 (en) Video processing equipment
JPH06237404A (en) Video processing unit
JP3299824B2 (en) Video equipment
JPH10155158A (en) Image pickup device and processing method for color image signal
JP4503106B2 (en) Information processing apparatus and method, information processing system, and recording medium
JPH06197261A (en) Image pickup device
JPH07107368A (en) Image processor
JPH0767025A (en) Video processor
JP2003101884A (en) Shading correcting device and method
JP3357718B2 (en) TV camera device
JP2792767B2 (en) Imaging device
JP2621468B2 (en) Video camera equipment
GB2343317A (en) Video motion detection
JPH0646317A (en) Video signal processing circuit
JPH0787372A (en) Image pickup device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100423

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110423

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120423

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 9

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 9