JPH06237411A - Video processor - Google Patents

Video processor

Info

Publication number
JPH06237411A
JPH06237411A JP4751393A JP4751393A JPH06237411A JP H06237411 A JPH06237411 A JP H06237411A JP 4751393 A JP4751393 A JP 4751393A JP 4751393 A JP4751393 A JP 4751393A JP H06237411 A JPH06237411 A JP H06237411A
Authority
JP
Japan
Prior art keywords
correction
image
distortion
circuit
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4751393A
Other languages
Japanese (ja)
Other versions
JP3332977B2 (en
Inventor
Masaomi Tomizawa
澤 将 臣 冨
Masaru Kawase
瀬 大 川
Hiroyuki Watabe
部 洋 之 渡
Daikichi Morohashi
橋 大 吉 師
Atsushi Inoue
上 淳 井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4751393A priority Critical patent/JP3332977B2/en
Publication of JPH06237411A publication Critical patent/JPH06237411A/en
Application granted granted Critical
Publication of JP3332977B2 publication Critical patent/JP3332977B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PURPOSE:To realize optical distortion correction, hand-shake correction and an electronic zoom function with a minimum circuit scale by partially using an optical distortion correction circuit section, a hand-shear correction circuit section and an electronic zoom circuit section in common. CONSTITUTION:A video image from an optical system 1 is subjected to photoelectric conversion and the converted image is stored in a picture memory 5. A microcomputer 11 receives a designated electronic zoom magnification, sends zoom information to the optical system 1 to control the optical zooming. A zoom coefficient S representing zoom information, an H address pitch and a V address pitch corresponding to the zoom magnification are sent to a read control circuit 12. The circuit 12 executes electronic zoom processing based on the information and sends a signal for optical distortion correction and hand-shake correction to the memory 5 and an interpolation circuit 6. Motion correction data in the horizontal and vertical directions corresponding to a motion quantity of hand-shear are sent to the circuit 6. The circuit scale is simplified by using an optical distortion correction circuit section, a hand-shake correction circuit section and an electronic zoom circuit section in common in this way.

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は映像処理装置に関し、特
に電子ズーム機能、手ぶれ補正機能及び光学レンズ等の
光学歪みの補正機能を有する映像処理装置に関する。 【0002】 【従来の技術】光学レンズには収差があるため、光学レ
ンズを介して撮像素子に結像される被写体光学像には光
学歪みが発生してしまい、その結果、映像信号も歪みを
もつ画像となってしまう。光学歪みとしては、図20
(A)に示すような「糸まき型歪み」や図20(B)に
示すような「たる型歪み」がある。これら歪みは、図2
0において、本来点線で示される位置にあるべき画像情
報が実線位置に結像するような歪みである。 【0003】このような光学歪みを伴う映像信号の歪み
を補正する補正処理としては、映像信号をデジタル信号
に変換して画像メモリに書き込み、歪みに応じて読み出
しアドレスをずらして読み出すことにより画像メモリ上
で光学歪みを補正する処理がある。 【0004】例えば、図21において、光学レンズによ
る歪みがなければ、画像メモリに点線のように記憶され
るべき格子状の画像が光学歪みにより実線のように記憶
されているとする。この画像データを画像メモリから読
み出すとき、A点を読み出すべきタイミングにa点に記
憶されている画像データを、B点を読み出すべきタイミ
ングにb点に記憶されている画像データを、同様にC点
を読み出すべきタイミングにc点に記憶されている画像
データを読み出す。こうすることにより実線で示す歪ん
だ画像は、点線で示す歪みのない元の格子状の画像とし
て読み出され、光学歪みが補正される。 【0005】図22には、この種の補正機能を有する従
来の映像処理装置の構成例ブロック図が示されている。
光学レンズ等の光学系1を介して被写体像がCCD等の
撮像素子2に結像される。この撮像素子2に結像されて
いる画像は、上記光学歪みを含んでおり、撮像素子2で
電気信号に変換される。撮像素子2からの信号は、撮像
プロセス回路3で所定の処理が施されて映像信号として
A/Dコンバータ4に供給される。A/Dコンバータ4
でデジタル信号に変換された映像信号は、画像メモリ5
に記憶される。画像メモリ5への信号の書き込み及び読
み出しタイミングは、ライトコントロール回路10とリ
ードコントロール回路12Aによって制御される。SS
G回路9は、当該装置動作の基準タイミング信号を発生
し、TG回路8、撮像プロセス回路3及びライトコント
ロール回路10に供給する。TG回路8は、SSG回路
9からの水平(H)方向、垂直(V)方向の読み出しタ
イミング信号を撮像素子2に送出する。ライトコントロ
ール回路10は、A/Dコンバータ4からの映像信号の
画像メモリ5への書き込みタイミングを制御する。 【0006】マイコン11は、光学系1からのズーム情
報等の信号を受け、補正量ROM19に格納されている
補正量データに基づいて上述光学歪みを補正すべくリー
ドコントロール回路12Aを制御する。補正量ROM1
9には、レンズの使用条件毎に、画面の各部について予
め定まる補正量、例えば図20の実線位置と点線位置と
の関係で定まる補正量が格納されている。こうして、リ
ードコントロール回路12Aから出力されるリード信号
により、光学歪みを補正すべく画像メモリ5から読み出
された信号は、補間回路6で補間処理された後、D/A
コンバータ7によりアナログ信号に変換されて出力され
る。かかる光学歪み補正機能をもつ映像処理装置は、特
開平4ー61570号公報に開示されている。 【0007】 【発明が解決しようとする課題】上述のように従来の映
像処理装置は、光学歪みをもつ映像信号を画像メモリに
記憶し、予め光学歪みに応じた各画素毎の補正量をRO
Mに格納しておき、光学歪みに応じてROMから読み出
された補正量に基づいた読み出しアドレスにより光学歪
みを補正している。 【0008】また、上記の如き映像処理装置において
は、手ぶれを補正するため、手ぶれ量を検出し、検出し
た手ぶれ量に対応して画像メモリに記録されている画像
データの読み出しアドレスを変えることにより手ぶれを
補正する手ぶれ補正機能や、読み出しアドレスのピッチ
を変えることにより出力画像の大きさを可変する電子ズ
ーム機能を有することが多い。しかしながら、従来の映
像処理装置では、光学歪み補正、手ぶれ補正及び電子ズ
ーム機能を実現する複数の処理を個別回路で行っている
ため、回路規模が大きくなるという問題がある。 【0009】そこで、本発明の目的は、光学歪み補正、
手ぶれ補正及び電子ズーム機能を最小限の回路規模で実
現する映像処理装置を提供することにある。 【0010】 【課題を解決するための手段】前述の課題を解決するた
め、本発明による映像処理装置は、光学系による像を光
電変換して得た映像信号をこの映像信号に対応する映像
データに変換する変換手段と、上記変換手段による映像
データを当該記憶手段に書き込み又は読み出しするに際
して該映像データに上記光学系による像の歪みに対応し
た補正を与える歪補正手段と、上記変換手段による映像
データを当該記憶手段に書き込み又は読み出しするに際
して該映像データに上記光学系により像を得るについて
の手振れに対応した補正を与えるべく上記歪補正手段の
当該回路部を少なくとも部分的に共用して構成された手
振れ補正手段と、を備えて構成される。 【0011】 【作用】本発明では、光学的歪み補正回路部、手ぶれ補
正回路部や電子ズーム回路部を共用するように構成する
ことにより、回路の簡素化を可能としている。 【0012】 【実施例】次に、本発明の実施例について図面を参照し
ながら説明する。図1は、電子ズーム機能と光学歪み補
正機能を行う処理回路を兼用する実施例構成ブロック図
を示す。図1において、図22と同一符号が付されてい
る構成部は同様機能をもつ構成部である。図1におい
て、マイコン11は、指定された電子ズーム倍率を受
け、該ズーム情報を光学系1に送出して光学ズーム制御
を行うとともに、該ズーム情報を示すズーム係数Sと、
ズーム倍率に対応するHアドレスピッチと、Vアドレス
ピッチをリードコントロール回路12に送出する。リー
ドコントロール回路12では、これらの情報に基づいて
電子ズーム処理を行うとともに光学歪みの補正処理を行
うための信号を画像メモリ5と補間回路6に送出する。 【0013】図2(A)には、ズームレンズにおける光
軸からの相対距離(%)と歪み率D(%)との関係につ
いての光学歪特性の一例が示されている。ここで、横軸
は、撮像素子の有効面の対角線の2分の1の長さを10
0%としたときの光軸位置からの相対距離を示し、縦軸
は歪み率Dを示す。ここで、歪み率Dの定義を、相対距
離r離れた点に結像すべき像が光学歪みによりr’に結
像したとき、図2(B)に示すように、 D=(r’−r)/r×100 % (1) とする。焦点距離fにより特性が変動するが、rが大き
くなるほど歪み率Dも大きくなり、この特性は、例えば D=s’’・r2 (2) で近似でき、式(1)、(2)から r’=r(1+s’・r2) (3) となる。ここで、s’’及びs’は焦点距離によって決
定する係数であり、 s’=s’’/100 とする。つまり、式(3)により、撮像素子上の光軸か
ら相対距離r離れた点に結像すべき像が光学歪みにより
rの(1+s’・r2)倍離れた点に結像していると導
ける。 【0014】撮像素子上の光軸から相対距離r離れた点
Pをメモリ上で考えると、図3(A),(B)に示すよ
うに、例えばNTSC信号の場合、撮像素子の縦横の比
はおよそ3:4であり、映像信号を240×768のフ
ィールドメモリに記憶する場合を考える。撮像素子上で
の相対距離rは、メモリ上では例えば水平方向でR画素
だとすると、垂直方向ではR/2.4画素となり、水平
方向と垂直方向とでは異なった画素数で表されてしま
う。そこで、垂直方向の画素数に、この例であれば2.
4といった換算係数kを乗じ、水平方向、垂直方向とも
に撮像素子上の相対距離rをメモリ上ではR画素といっ
たように、撮像素子上の距離をメモリの画素数に換算で
きるようにする。 【0015】ここで、図4に示すように、撮像素子上の
光軸から相対距離r離れた点Pに結像すべき点が光学歪
により相対距離r’の点P’に結像している場合を考え
る。点Pについては撮像素子上の光軸にあたるメモリの
中心座標から水平方向にx画素、垂直方向にはy画素の
位置、点P’については水平方向にx’画素、垂直方向
にはy’画素の位置としたときのメモリ上でのP,P’
の位置関係を求める。 【0016】式(3)から点P’は、点Pより(1+
s’・r2)倍、中心座標から離れていると考えられ
る。ここで、rをメモリ上の大きさで表すと r=c×√{x2+(ky)2} (4) で表せる。cは撮像素子の大きさとメモリの画素数で決
定する定数である。また、点P’が点Pより中心座標か
ら(1+s’・r2)倍離れているということは、それ
ぞれの水平、垂直方向の距離も(1+s’・r2)倍離
れているということなので x’=x(1+s’・r2) (5) y’=y(1+s’・r2) (6) となる。式(4)、(5)、(6)から x’=x[1+s’・c2{x2+(ky)2}] (7’) y’=y[1+s’・c2{x2+(ky)2}] (8’) ここで、s’c2を定数Sとまとめれば x’=x[1+S{x2+(ky)2}] (7) y’=y[1+S{x2+(ky)2}] (8) となる。また、Sは焦点距離によって定まる係数とな
る。 【0017】上記式から明らかなように、メモリの中心
座標から水平、垂直方向にx,y離れた画素P(x,
y)に記憶されるべき画像データは、光学歪みによりそ
れぞれx,yの{1+s(x2+(ky)2))}倍の
x’,y’中心座標から離れた画素P’(x’,y’)
に記憶されていることを示している。よって前述(従来
例にて)説明した如く、画像データをメモリから読み出
すとき、P点を読み出すべきタイミングにP’点に記憶
されている画像データを読み出せば光学歪みが補正され
る。 【0018】上述実施例において、撮像素子上の光軸か
らの距離rをメモリの画素x,yで表すと3平方の定理
により、r=√(x2+y2)といった平方根の演算が入
るが、本実施例では光学歪み特性を式(2)のようにD
=s’’・r2と近似したので、平方根の演算と2乗の
演算が打ち消し合い演算回路の規模が減る。特に、平方
根の演算は回路規模を要するので効果は大きい。 【0019】図5には、本実施例におけるリードコント
ロール回路12の回路例が示されている。図5におい
て、先ず、電子ズーム処理を行うため、マイコン11か
らのHアドレスピッチデータ(2倍ズームの場合は0.
5)とVアドレスピッチデータ(2倍ズームの場合は
0.5)が、それぞれHアドレスピッチ発生回路120
2とVアドレスピッチ発生回路1204に供給される。
Hスタートアドレス発生回路1201とVスタートアド
レス発生回路1203は、処理開始アドレスを発生する
ための回路で、本例ではそれぞれ“0”をスタートアド
レスとして発生し、これらアドレスは、ラッチ回路12
05と1207にラッチされる。Hスタートアドレス発
生回路1201、Hアドレスピッチ発生回路1202、
Vスタートアドレス発生回路1203、Vアドレスピッ
チ発生回路1204は、モード選択信号によってモード
が切り換わる。Hアドレスピッチ発生回路1202とV
アドレスピッチ発生回路1204から出力されるアドレ
スピッチは、ラッチ回路1206と1208にラッチさ
れる。ラッチ回路1205,1206,1207及び1
208は、垂直(V)同期パルスに応答して動作し、そ
れぞれのラッチ回路から読み出されたデータは、選択回
路1209,加算器1211,選択回路1212,加算
器1214のそれぞれの一入力端子に供給される。加算
器1211と1214の出力は、それぞれ水平(H)同
期パルスとV同期パルスに応答してこの入力を切り換え
出力する選択回路1209と1212の他入力端子に供
給される。即ち、選択回路1209,1212は、スタ
ート時、ラッチ回路1205,1207からのデータを
出力し、次アドレスからは加算器1211,1214か
らのデータを切り換え出力する。選択回路1209と1
212の出力は、それぞれラッチ回路1210と121
3でラッチされ、ラッチ出力はそれぞれクロックCLO
CKとH同期パルスに応答して加算器の他入力として供
給されるとともに、ズーム出力信号として出力される。
かかる構成は、特開平2ー250469に開示されてい
る。 【0020】このような構成により、Hスタートアドレ
ス発生回路1201とVスタートアドレス発生回路12
03で設定されたスタートアドレスである原点(0,
0)からズーム倍率に応じて定まるピッチ単位のアドレ
スがラッチ回路1210と1213から出力される。こ
れらラッチ回路からは水平方向の読み出しタイミングア
ドレスと垂直方向の読み出しタイミングアドレスとして
発生される。画像メモリ5の読み出しタイミングは、テ
レビジョンの走査と同じで左上から右下に読み出す。座
標系を同図(A)のように設定すると、左上が原点
(0,0)、右下が(2x0,2y0)で、中心が(x0,
0)となる。 【0021】式(7),(8)は画像メモリ5の中心座
標を原点と考えているのに対し、ラッチ回路1210と
1213から供給される読み出しタイミングアドレス
は、同図(A)のように左上が原点となっている。した
がって、この供給されたアドレスが、中心座標アドレス
(x0,y0)からの距離情報となるように、原点移動さ
せる必要がある。原点移動ブロック回路Aは、かかる原
点移動を実行するもので、ラッチ回路1210と121
3からのアドレス値からそれぞれ中心座標アドレス値x
0,y0をそれぞれ減じる減算回路1215と1216か
ら成る。この原点移動処理の結果、座標系は同図(B)
に示すような座標系となる。 【0022】次に、距離演算ブロックBで、式(7)と
(8)における距離演算:x2+(ky)2を実行する。
入力xは乗算器1217で二乗された後、加算器121
8に入力され、入力yは乗算器1219で変換係数kと
乗算された後、乗算器1220で二乗され、乗算器12
17と1220の出力は加算器1218で加算される。 【0023】歪み倍率演算ブロックCは、式(7)と
(8)中の[1+s{x2+(ky)2}]を演算する回
路で、乗算器1221により距離演算ブロックBから供
給される{x2+(ky)2}にマイコン11から供給さ
れるズームレンズの焦点距離によって定まる焦点距離係
数Sを乗じ、加算器1222において、該乗算出力に
“1”を加算して出力する。 【0024】式(7)と(8)のx’とy’は、x’,
y’演算ブロックDの乗算器1223と1224により
求められる。乗算器1223と1224は、加算器12
22の出力に対して、減算器1215と1216から出
力さるxとyをそれぞれ乗算する。 【0025】こうして求められたx’とy’は、同図
(B)に示すように中心を原点としたときのxy座標の
アドレスであり、前述のとおり、画像メモリ5の実際の
原点は左上であるので、原点移動ブロックEの加算器1
225と1226において、それぞれx’,y’中心座
標アドレス値を加算することにより座標を同図(C)に
示すように元に戻す。 【0026】以上のような処理を介して、画像メモリ5
の画像の歪みに応じた読み出しアドレスが発生され、こ
の読み出しアドレスで画像メモリ5を読み出せば、光学
歪みの補正された画像を得ることができる。 【0027】上述実施例の説明における光学歪み特性は
様々な式で近似でき、より高次の項まで近似すればより
高い精度で近似することが可能である。尚、上記実施例
においては、メモリの読み出し制御により光学歪みを補
正したがメモリの書き込み制御によってこれを行っても
よいことは勿論である。以上の実施例では、電子ズーム
処理を施した後に、歪み補正を行う例を説明している
が、歪み補正を行なってから電子ズームを行うようにも
構成できることは勿論である。 【0028】次に、手ぶれ補正処理部と光学歪み補正処
理部を兼用する実施例を図6と図7を参照して説明す
る。図6と図7において、図1と同一符号が付されてい
る回路構成部は同様な回路部を示す。本実施例では、図
6に示す如く、手ぶれ補正量を検出するための例えば、
角速度センサ等の動き検出器13が設けられ、得られた
動き情報がマイコン11に送出され、リードコントロー
ル回路12で以下に述べるような手ぶれ補正及び光学歪
み補正処理が施される。 【0029】図7において、動き検出器13からの手ぶ
れの動き量に対応した水平方向の動き補正データ(H)
と垂直方向の動き補正データ(V)がHスタートアドレ
ス発生回路1201とVスタートアドレス発生回路12
03に入力され、スタートアドレスHSとVSがラッチ
回路1205と1207にラッチされる。Hアドレスピ
ッチ発生回路1202とVアドレスピッチ発生回路12
04は、手ぶれ発生時の規定領域からの画像のずれ(画
角切れ)を生ずることがないように若干画像をズームさ
せるためのもので、例えば、ピッチ情報HP,VPとし
て0.9の値が出力される。その結果、ラッチ回路12
10と1213から出力されるデータは、それぞれ、H
S,HS+HP,HS+2HP,…とVS,VS+V
P,VS+2VP,…となる。以後の処理は図5と同様
であり、手ぶれ補正と光学歪み補正処理が同時に行われ
ることになる。 【0030】以上のように、上述本実施例では、リード
コントロール回路12以外は全て共通の回路であるが、
リードコントロール回路内では手ぶれ補正または電子ズ
ーム処理と光学歪補正処理のアドレス発生回路部は独立
しているので、一方の機能が不要な場合には、どちらか
一方のみを機能させることができる。したがって、省電
力化を図ることもできる。本実施例によれば、安価で小
型化が容易な映像処理装置が得られる。 【0031】ところで、上述のように、光学歪みの補正
は、光学系の焦点距離情報と、結像位置の光軸からの距
離情報とを検出し、この検出情報に基づいて行われる。
一般に蓄積型の光電変換素子を用いて、画像信号を取り
出す場合、被写体光の蓄積時間と出力時間とがズレてし
まい、映像信号の出力期間に光学系の焦点距離情報等を
検出して歪み補正を行うと、出力されている映像信号の
蓄積期間の光学系の焦点距離情報が必ずしも一致せず、
補正に過不足を生ずる。また、光学系の焦点距離は、刻
一刻と変化しているため、リアルタイムに光学系の焦点
距離情報を検出して、歪み補正を行うと同一画面内でも
歪み補正量が異なり不自然な映像となってしまう。 【0032】本発明の次の実施例では、出力される映像
信号の蓄積期間の光学系の情報を、該当する画像の読み
出しタイミングまで遅延させることにより、上述問題を
解決している。すなわち、光学系の焦点距離等の情報
を、撮像素子の電荷蓄積期間の所定タイミングで取り込
み、また、読み出しアドレス発生部でズーム係数Sを与
えるタイミングを取り込んだ画像信号の読み出し開始時
に設定している。 【0033】図8を参照して被写体光が画像メモリに記
憶されて読み出されるまでの過程を説明すると、垂直同
期信号Vに応答して光電変換部から垂直転送部への転送
パルスTが送出され、不要電荷排出パルスSにより不要
電荷が排出される。図中、期間Aで不要電荷が排出さ
れ、期間Bでは電荷が蓄積されて光学系情報が取り込ま
れる。また、期間Cでメモリへの転送と書き込みが行わ
れ、期間Dでメモリからの読み出しが行われ、垂直同期
のタイミングでズーム係数Sが設定される。すなわち、
本実施例では、期間Bで得られた光学系情報を1画面分
遅らせてメモリから読み出して係数を設定している。 【0034】マイコンによる光学系情報の検出回路例が
図9に示されている。ズーム比により変化する光学系1
のズームレンズの位置情報は、ズームレンズの位置に応
動する移動接片をもち、一端が接地されている可変抵抗
器RVと抵抗R1に直列接続された外部電源E1が設け
られ、ズームレンズの移動により抵抗値が変化する可変
抵抗RVと抵抗R1の接続点の電圧を、上記タイミング
信号V,T,Sが供給されているマイコン1内の電圧検
出器111で検出する。マイコン11はタイミング制御
回路114を有し、各部に上記信号V,T,Sに基づく
タイミング信号を供給する。電圧検出部111は、期間
Bでのズームレンズの移動距離を求め、電圧/焦点距離
換算部112で、焦点距離情報を得た後、パラメータ設
定部113でタイミング信号Vのタイミングでパラメー
タが設定されて、係数Sが出力される。 【0035】上述の実施例以外に、画像メモリへの画像
情報の書き込み時点で光学歪みを補正することもでき
る。こうすることにより、蓄積期間の情報がそのまま書
き込み期間に生かされるので、より高精度な歪み補正が
可能となる。 【0036】次の実施例は光学歪み補正を行う際、焦点
距離等の光学系の状態変化に対する歪量変化の割合に基
づいて、視覚的に目立たない範囲で離散的に歪みの補正
係数を求めることによりメモリ容量の削減を図るもので
ある。 【0037】上述のように、光学歪みは光学系の焦点距
離と、結像位置の光軸からの距離により規定されるの
で、焦点距離が変われば補正の度合いも変える必要があ
る。しかしながら、一般的に人間が光学歪みを検知でき
るのは歪の割合が1%以上であると言われている。した
がって、焦点距離によって逐一補正状態を変更するのは
非常に繁雑であり、また焦点距離検出誤差による補正の
ふらつき等が生じてしまうことになる。 【0038】そこで、本実施例では、補正すべきステッ
プを必要以上に細かく設定することなく、視覚的に違和
感のない範囲内では、光学歪み補正の変更を行わず、つ
まり、光学歪みが予め定めた範囲内にある場合には、同
一の補正係数を使用することにより、光学歪み補正に必
要なメモリ容量と演算量を削減している。 【0039】図10には、光学系の焦点距離と歪量との
関係が示されている。図10について、焦点距離:6.
5mm〜52mm(8倍)の範囲で考えると、歪の割合
は、−18%〜+2.5%の範囲にあり、補正後の歪の
割合が±1%以内になるようにするには、 {2.5−(−18)}/{1−(−1)}=10.25 すなわち、少なくとも11段階に分割した各分割範囲で
焦点距離を検出すれば良い。例えば、図11に示すよう
に、歪み量が+1%〜−1%の範囲(焦点距離が1〜2
の範囲)、歪量が−1%〜−3%の範囲(焦点距離が2
〜3の範囲)、−3%〜−5%の範囲に分割し、焦点距
離が各分割範囲内にあるときには、歪み補正のための係
数は同一値を用いるようにする。図2からr=100の
点の歪量が最大となるので、r=1における歪み率が検
知限に収まれば、r<1の範囲では歪みは更に小さくな
る。 【0040】図12を参照して本実施例のマイコン内の
動作処理手順を説明すると、図9のズームレンズ位置検
出手段と同様な手段により、対応する電圧が検出され
(ステップS1)、検出された電圧から焦点距離が換算
され(ステップS2)、焦点距離ゾーンが判定される
(ステップS3)。このゾーンは上記±1%の歪み量変
化範囲に対応する焦点距離変化範囲の分割範囲である。
続いて、ゾーンの変更の有無が判定され(ステップS
4)、なければ、ステップS1の処理に戻り、ゾーン変
更が有れば係数Sを演算して(ステップS5)、リード
アドレス発生ブロックに送出する。 【0041】本発明の更なる他の実施例は、光学系歪み
を電気的に補正する際に生ずる画面の切れ(画角切れ)
を電子ズームを同時に行うことにより除去する例であ
る。前述のように、光学歪みのうち糸まき型はTele
側操作時に生じ易く、たる型歪みはWide側操作時に
生じ易い。ここで、糸まき型歪み発生時には、図13
(A)のように本来の画像領域(長方形領域)左上部の
角部点Aが従来の光学歪補正により、同図(B)のよう
に内側に移動することになり、同図斜線部領域は、光電
変換素子のない部分からの信号で、画像のない画角切れ
が生ずる。そこで、本実施例では、光学歪み補正と同時
に電子ズームを行ってこの画角切れを防止している。電
子ズーム倍率は、大きい値にする必要はなく、画角切れ
が生じない程度の小さい値に設定すれば良い。 【0042】そのためのハードウェア構成は、図5の構
成と同一であり、Hアドレスピッチ発生回路1202と
Vアドレスピッチ発生回路1204に設定するズーム倍
率設定用のピッチとして例えば0.9の値が設定されて
いる。このときの動作としては、当該時点でのf値を入
力したマイコンは、このf値に基づく歪み補正のための
補正量を演算するとともに、これに応じた画角切れ防止
のための電子ズーム用のピッチをH,Vともに出力す
る。 【0043】本発明の更に他の実施例は、光学歪み補正
を行う映像処理装置において、自動合焦制御(AF)、
自動露出制御(AE)及び自動ホワイトバランス制御
(AWB)のいずれかまたは全部の制御をも可能とする
ものであり、該制御を行う際に与えられる重み付け係数
を、画像領域の分割エリア毎に歪み補正量に応じて変化
させたり、歪み補正されたその映像信号を用いて制御の
ための基礎情報の検出と各制御を行う例である。 【0044】以下の制御例は、上記AF制御、AE制御
及びAWB制御の各制御対象について適用できるが、一
例としてAF制御について説明する。第1の例は、各分
割エリア毎のコントラスト情報(制御基礎パラメータ)
に含まれる歪みによる誤差の影響を、エリア毎の重み付
け値を歪み量に応じて変化させることにより、結果とし
て得られる重み付け後のコントラスト情報を歪みによら
ずに安定して得るとともに、安定な自動焦点(AF)制
御を可能とする。また、歪み補正後の画像情報を用いれ
ば、歪によらず安定したコントラスト情報が得られ、安
定なAF制御が可能となる。したがって、ズーム比によ
らず、安定したAF制御が可能となり、歪みのない画像
情報を得ることができ、歪み補正レンズのない光学系を
使用できるので小型、軽量化が可能である。 【0045】第2の例は、コントラスト情報の検出に用
いるセンサとして映像信号を得るための撮像素子とは別
のセンサを用いるもので、そのセンサに入射される光が
撮像素子に結像するズームレンズを透過したTTL式の
ものであれば、同様の効果が得られる。 この第2の例
では、電子的に歪み補正された画像情報を用いて、各分
割エリア毎のコントラスト情報を得ているので、歪みに
よる影響を受けることなく、ズーム比によらず安定した
AF制御が可能となり、歪み補正を映像処理装置内部に
含ませることにより、歪みのない画像情報を得ることが
でき、同様に歪み補正レンズのない光学系を使用できる
ので、小型、軽量化も可能となる。上述において、制御
対象は、焦点(AF)制御だけでなく、露出(AE)制
御、ホワイトバランス(AWB)制御についても、制御
基準パラメータとして輝度情報や色情報を用いれば同様
に行うことができる。 【0046】第1の例について図14を参照して説明す
る。図14において、図1と同一符号が付されている構
成部は同様機能を有する構成部を示す。光学系1には、
ズームレンズの位置情報を検出するズームエンコーダ1
A,ズームレンズ位置を駆動制御するズーム駆動部1B
と、焦点制御部1C及び絞り駆動部1Dが備えられてい
る。ズームエンコーダ1Aからのズームレンズ位置情報
がマイコン11に供給され、ズーム制御信号、焦点制御
信号及び絞り制御信号がマイコン11からズーム駆動部
1B、焦点制御部1C及び絞り制御部1Dに送出され
る。 【0047】マイコン11は、後述するように、分割エ
リア毎のコントラスト信号、輝度信号及び色信号の少な
くとも1つの信号を受け、補正ROM14に格納されて
いる各エリア情報に乗算すべき適切な補正データ(重み
付けデータ)を読み出し、補正データをリードコントロ
ール回路12に送出する。リードコントロール回路12
は、前述のような処理を補正ROM15に格納されてい
るデータに基づいて画像メモリ5と補間回路6に制御信
号を送出する。補正ROM14と15は、マイコン11
やリードコントロール回路12内での演算で必要なデー
タを求める場合には不要である。 【0048】撮像プロセス回路3から出力されるY信号
は、そのまま、またフィルター16によりコントラスト
情報信号に変換されて、セレクタ17に供給されるとと
もに、C信号もセレクタ17に供給される。セレクタ1
7は、マイコン11からの選択信号に応答してY信号、
コントラスト信号、C信号のうち必要な情報データを選
択する。エリア積分回路18は、セレクタ17で選択さ
れた信号を分割エリア毎に積分して、エリア積分された
上記信号から得られる輝度信号や色信号をマイコン11
に供給して、後述するように、コントラスト情報に基づ
く焦点制御、輝度情報に基づく露出制御及び色情報(色
差信号であるRーY信号やBーY信号等)に基づくホワ
イトバランス制御処理を行う。 【0049】図15の(A)と(B)には、糸まき型歪
み発生前における各分割エリアの重み付け値と、たる型
歪み発生前における各分割エリアの重み付け値の例が示
されている。この重み付け値は、もともと画面の略中央
部に主要な被写体が存在してくるであろうことを考慮し
てAF、AE及びAWB等のために設定された演算値の
一例を示すものである。図からも明らかなように、糸ま
き型歪み発生時には、周辺部の画像ほど歪んでいるの
で、理想画像に対する補正はその分だけ大きく行わなけ
ればならず、よって周辺部で重み付け値を増大させる必
要がある。 【0050】たる型歪み発生時の重み付け値の変化とそ
の補正例が図16に示されている。本例では、少なくと
も画素から成るブロックのそれぞれに重み付け値を設定
しているが、4×4ブロックを1分割エリアとして扱
う。エリアAとエリアBが、たる型歪みにより変形して
それぞれエリアCとエリアDとなる。歪みのない場合の
各エリアの重み付けは、 エリアA:{(0×3)+(1×3)+(2×4)+(3×3)+(4×2) +(5×1)}/16(=)2 ・・・・(a) エリアB:{(7×1)+(8×2)+(9×3)+(10×4)+(11× 3)+(12×2)+13}/16=10 ・・・・(b) 歪み発生後の各エリアの重み付けは、 エリアC:{(7×4)+(8×4)+(9×3)}/11(=)8 ・・・・(c) エリアD:{(11×5)+(12×3)+(13×2)}/10(=)12 ・・・・(d) となり、同一の画像成分であるにもかかわらず、重み付
け係数が変化していることがわかる。そこで、同一の画
像に対して歪みの発生前後で同一の重み付けを行うため
に、補正された重み付け係数を求める。即ち、補正後の
各エリアの重み付けは、エリアAは、元々画像がないか
ら、 エリアA:(画素データ×画素の数)/画素の数 =(0×16)/16=0 エリアB:{((a)×エリアB内に投影されているエ
リアCの画素数)+((b)×エリアB内に投影されて
いるエリアDの画素数)/(エリアB内に投影されてい
るエリアCとDの総画素数) 即ち、 ={(2×6)+(10×6)}/12=6 したがって、エリアBに対しては補正係数を6/10と
すれば良い。このように重み付け値の補正は、各分割エ
リアに含まれる歪みのない場合の重み付け値と小ブロッ
クの画素数の積の平均値を補正された重み付け値とする
ように行われる。 【0051】図17を参照して歪み補正前の信号を用い
た実施例の処理手順を説明すると、先ず、自動制御モー
ドであるか否かを判定し(ステップS11)、自動制御
モードであると判定したときには、ズームエンコーダ1
Aからのズーム位置情報をマイコン11が読み取り(ス
テップS12)、歪み補正量をコード化する(ステップ
S13)。次に、歪み補正コードによるテーブルデータ
を参照して各エリアの重み付け値の補正係数を読み出し
(ステップS14)、マイコン内に別に格納されている
重み付けデータに補正係数を乗算して各エリアの重み付
け値を補正し(ステップS15)、セレクタ17により
エリア積分器18の入力を切り換え(ステップS1
6)、必要な制御基準パラメータ(コントラスト情報、
輝度情報、色情報等)を積分器18によりエリア積分し
て(ステップS17)、該エリア積分データをマイコン
に供給する(マイコン11による読み込み)(ステップ
S18)。続いて補正された重み付けデータを参照し
(ステップS19)、各エリアの積分データの重み付け
処理を施し(ステップS20)、新たな制御データを演
算する。そして、重み付けされたエリア積分データから
制御データを決定する(ステップS21)。その後、制
御データを出力して(ステップS22)、ステップS1
1の処理に戻る。 【0052】次に、上記第2の例として、歪み補正され
た信号を用いる実施例について説明する。図18は、本
実施例の構成ブロック図であり、図14と同一符号が付
されている回路部は同様機能を有する回路部である。本
実施例では、補間回路6で歪み補正されたY信号とC信
号を用い、フィルタ16でコントラスト情報が得られ、
セレクタ17には歪み補正されたコントラスト信号、Y
信号、C信号の制御基準パラメータが供給され、マイコ
ン11からの選択信号により、所望の信号がエリア積分
器18に供給される。エリア積分器18は、入力信号を
エリア積分して積分値をマイコン11に供給する。 【0053】図19を参照して、本実施例の処理手順を
説明する。先ず、自動制御モードであるか否かを判定し
(ステップS31)、自動制御モードであれば、エリア
積分器18の入力を切り換え、必要な制御基準パラメー
タを出力し(ステップS32)、このパラメータ信号エ
リア積分器でエリア積分し(ステップS33)、エリア
積分データの演算処理を施す(ステップS34)。次
に、重み付けデータを参照し(ステップS35)、各エ
リアの積分データの重み付け処理を行い(ステップS3
6)、重み付けされたエリア積分データから制御データ
を求める新たな制御データの演算処理を施し(ステップ
S37)、制御データを出力した後(ステップS3
8)、ステップS31の処理に戻る。 【0054】以上、各実施例をまとめると、本発明によ
る映像処理装置は、次のような構成を有するを可とす
る。 (1)光学系による像を光電変換して得た映像信号をこ
の映像信号に対応する映像データに変換する変換手段
と、上記変換手段による映像データを当該記憶手段に書
き込み又は読み出しするに際して該映像データに上記光
学系による像の歪みに対応した補正を与える歪補正手段
と、上記変換手段による映像データを当該記憶手段に書
き込み又は読み出しするに際して該映像データに対し当
該映像に係るズーミング効果を得るための変換を与える
べく上記歪み補正手段の当該回路部を少なくとも部分的
に共用して構成された電子ズーム手段と、を有する。 (2)光学系による像を光電変換して得た映像信号をこ
の映像信号に対応する映像データに変換する変換手段
と、上記変換手段による映像データを当該記憶手段に書
き込み又は読み出しするに際して該映像データに上記光
学系による像の歪みに対応した補正を与える歪み補正手
段とを備えた映像処理装置において、上記歪み補正手段
は当該映像信号の補正処理の基礎となる光学系の状態に
応じた補正用データ(ズーム位置に応じた補正用パラメ
ータS)の取り込みタイミングを当該映像データの取り
込みタイミングと所定の位相関係にするタイミング調整
手段を含む。 (3)光学系による像を光電変換して得た映像信号をこ
の映像信号に対応する映像データに変換する変換手段
と、上記変換手段による映像データを当該記憶手段に書
き込み又は読み出しするに際して該映像データに上記光
学系による像の歪みに対応した補正を与える歪み補正手
段とを備えた映像処理装置において、上記歪み補正手段
は、当該光学系の焦点距離の変化に対応する像の歪み程
度の変化が所定範囲内にあるような焦点距離区間(焦点
距離の変化に対する歪みの変化が急峻である領域ほど狭
くなる)に適用すべきデータとしての補正用データを当
該映像信号の補正処理の基礎となるデータとして当該デ
ータ保有手段に備えて構成される。 (4)光学系による像を光電変換して得た映像信号をこ
の映像信号に対応する映像データに変換する変換手段
と、上記変換手段による映像データを当該記憶手段に書
き込み又は読み出しするに際して該映像データに上記光
学系による像の歪みに対応した第1の補正を与える歪み
補正手段と、上記第1の補正によって補正後の映像デー
タに対応する映像が所定の画面内領域を逸脱することを
回避するための第2の補正(電子ズーム)を上記第1の
補正に加味する調整手段と、を有する。 (5)光学系による像を光電変換して得た映像信号をこ
の映像信号に対応する映像データに変換する変換手段
と、上記変換手段による映像データを当該記憶手段に書
き込み又は読み出しするに際して該映像データに上記光
学系による像の歪みに対応した補正を与える歪み補正手
段と、上記映像信号に係る画面内の複数の領域毎に設定
された重み付け係数を適用してこれら複数の領域から像
の先鋭度に係る合焦情報、測光情報またはホイワイトバ
ランス情報を得るにつき該重み付け係数に上記像の歪み
に対応した補正の程度を加味するようになされた合焦情
報調整検出手段と、を有する。而して、本発明において
は、上記実施例を1つ又は複数種組み合わせることによ
って使用し得ること勿論であり、本発明の要旨を逸脱し
ない範囲で種々変更が可能である。 【0055】 【発明の効果】以上説明したように本発明による映像処
理装置によれば、電子ズーム、手ぶれ補正及び光学歪み
補正処理機能を、回路規模の増大を抑制して実現でき、
小型化及び低価格化を可能とする。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus having an electronic zoom function, a camera shake correction function, and an optical distortion correction function such as an optical lens. Since an optical lens has an aberration, an optical distortion is generated in an optical image of a subject formed on an image pickup device through the optical lens, and as a result, a video signal is also distorted. It becomes an image that has. The optical distortion is shown in FIG.
There is a "thread winding type distortion" as shown in (A) and a "barrel type distortion" as shown in FIG. 20 (B). These distortions are
At 0, the distortion is such that the image information originally supposed to be at the position indicated by the dotted line is imaged at the solid line position. As a correction process for correcting the distortion of a video signal accompanied by such optical distortion, the video signal is converted into a digital signal and written in an image memory, and a read address is shifted according to the distortion to read out the image memory. There is a process for correcting the optical distortion above. For example, in FIG. 21, if there is no distortion due to the optical lens, it is assumed that the lattice-shaped image to be stored in the image memory as shown by the dotted line is stored as shown by the solid line due to the optical distortion. When this image data is read from the image memory, the image data stored at the point a at the timing of reading the point A, the image data stored at the point b at the timing of reading the point B, the same as the point C. The image data stored at the point c is read at the timing at which is to be read. By doing so, the distorted image shown by the solid line is read as the original image without distortion shown by the dotted line, and the optical distortion is corrected. FIG. 22 is a block diagram showing an example of the configuration of a conventional video processing device having this type of correction function.
A subject image is formed on an image sensor 2 such as a CCD via an optical system 1 such as an optical lens. The image formed on the image sensor 2 contains the optical distortion and is converted into an electric signal by the image sensor 2. The signal from the image pickup device 2 is subjected to a predetermined process in the image pickup process circuit 3 and supplied to the A / D converter 4 as a video signal. A / D converter 4
The video signal converted into a digital signal by the image memory 5
Memorized in. The timing of writing and reading signals to and from the image memory 5 is controlled by the write control circuit 10 and the read control circuit 12A. SS
The G circuit 9 generates a reference timing signal for the operation of the device and supplies it to the TG circuit 8, the imaging process circuit 3 and the write control circuit 10. The TG circuit 8 sends the read timing signals from the SSG circuit 9 in the horizontal (H) direction and the vertical (V) direction to the image sensor 2. The write control circuit 10 controls the timing of writing the video signal from the A / D converter 4 into the image memory 5. The microcomputer 11 receives signals such as zoom information from the optical system 1 and controls the read control circuit 12A to correct the above optical distortion based on the correction amount data stored in the correction amount ROM 19. Correction amount ROM1
9 stores a correction amount that is predetermined for each part of the screen for each lens usage condition, for example, a correction amount that is determined by the relationship between the solid line position and the dotted line position in FIG. Thus, the signal read from the image memory 5 to correct the optical distortion by the read signal output from the read control circuit 12A is interpolated by the interpolating circuit 6 and then D / A.
It is converted into an analog signal by the converter 7 and output. An image processing device having such an optical distortion correction function is disclosed in Japanese Patent Application Laid-Open No. 4-61570. As described above, the conventional image processing apparatus stores the image signal having the optical distortion in the image memory, and the correction amount for each pixel according to the optical distortion is RO in advance.
It is stored in M and the optical distortion is corrected by the read address based on the correction amount read from the ROM according to the optical distortion. Further, in the image processing apparatus as described above, in order to correct the camera shake, the amount of camera shake is detected, and the read address of the image data recorded in the image memory is changed corresponding to the detected camera shake amount. In many cases, it has a camera shake correction function for correcting camera shake and an electronic zoom function for varying the size of an output image by changing the pitch of the read address. However, in the conventional image processing apparatus, there is a problem that the circuit scale becomes large because the individual circuits perform a plurality of processes for realizing the optical distortion correction, the camera shake correction, and the electronic zoom function. Therefore, an object of the present invention is to correct optical distortion,
An object of the present invention is to provide an image processing device that realizes a camera shake correction function and an electronic zoom function with a minimum circuit scale. In order to solve the above-mentioned problems, the video processing apparatus according to the present invention uses a video signal obtained by photoelectrically converting an image by an optical system to obtain video data corresponding to the video signal. Converting means for converting the image data by the converting means into distortion correction means for correcting the image data by the optical system when writing or reading the image data into or from the storage means; When writing or reading data to or from the storage means, the circuit portion of the distortion correction means is at least partially shared so as to give correction to the image data corresponding to camera shake when an image is obtained by the optical system. And a camera shake correction means. According to the present invention, the optical distortion correction circuit section, the camera shake correction circuit section and the electronic zoom circuit section are shared so that the circuit can be simplified. Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an embodiment that also serves as a processing circuit that performs an electronic zoom function and an optical distortion correction function. In FIG. 1, components designated by the same reference numerals as those in FIG. 22 are components having the same function. In FIG. 1, the microcomputer 11 receives a designated electronic zoom magnification, sends the zoom information to the optical system 1 to perform optical zoom control, and a zoom coefficient S indicating the zoom information.
The H address pitch and the V address pitch corresponding to the zoom magnification are sent to the read control circuit 12. The read control circuit 12 sends signals to the image memory 5 and the interpolation circuit 6 for performing electronic zoom processing and optical distortion correction processing based on these pieces of information. FIG. 2A shows an example of the optical distortion characteristics of the relationship between the relative distance (%) from the optical axis and the distortion rate D (%) in the zoom lens. Here, the abscissa represents the half length of the diagonal line of the effective surface of the image sensor to 10
The relative distance from the optical axis position when 0% is shown, and the vertical axis shows the strain rate D. Here, the definition of the distortion rate D is as follows. When an image to be formed at a point distant from the relative distance r is formed at r ′ due to optical distortion, as shown in FIG. 2B, D = (r′− r) / r × 100% (1) Although the characteristic varies depending on the focal length f, the distortion rate D increases as r increases, and this characteristic can be approximated by, for example, D = s ″ · r 2 (2), and from Equations (1) and (2) r ′ = r (1 + s ′ · r 2 ) (3). Here, s ″ and s ′ are coefficients determined by the focal length, and s ′ = s ″ / 100. That is, according to the equation (3), an image to be formed at a point distant from the optical axis on the image sensor by a relative distance r is imaged at a point distant by (1 + s ′ · r 2 ) times r due to optical distortion. Can lead. Considering the point P on the memory, which is a relative distance r from the optical axis on the image pickup device, as shown in FIGS. 3A and 3B, for example, in the case of an NTSC signal, the aspect ratio of the image pickup device is increased. Is about 3: 4, and the case where a video signal is stored in a 240 × 768 field memory will be considered. The relative distance r on the image pickup device is R / 2.4 pixels in the vertical direction, assuming that there are R pixels in the horizontal direction in the memory, and is represented by different numbers of pixels in the horizontal and vertical directions. Therefore, the number of pixels in the vertical direction is 2.
By multiplying by a conversion coefficient k such as 4, the relative distance r on the image sensor in both the horizontal and vertical directions can be converted to the number of pixels in the memory, such as R pixels on the memory. Here, as shown in FIG. 4, a point to be imaged at a point P distant from the optical axis on the image pickup element by a relative distance r is imaged at a point P ′ at a relative distance r ′ due to optical distortion. Consider the case. For point P, the position of x pixels in the horizontal direction and y pixels in the vertical direction from the center coordinates of the memory corresponding to the optical axis on the image sensor, and for the point P ', x'pixels in the horizontal direction and y'pixels in the vertical direction. P, P'on the memory at the position of
Find the positional relationship of. From the equation (3), the point P ′ is (1+
It is considered to be s ′ · r 2 ) times away from the center coordinate. Here, r can be represented by the size on the memory as follows: r = c × √ {x 2 + (ky) 2 } (4) c is a constant determined by the size of the image sensor and the number of pixels in the memory. Also, the fact that the point P ′ is (1 + s ′ · r 2 ) times away from the center coordinates from the point P means that the distances in the horizontal and vertical directions are also (1 + s ′ · r 2 ) times away. x ′ = x (1 + s ′ · r 2 ) (5) y ′ = y (1 + s ′ · r 2 ) (6) Equation (4), (5), from (6) x '= x [ 1 + s' · c 2 {x 2 + (ky) 2}] (7') y '= y [1 + s' · c 2 {x 2 + (Ky) 2 }] (8 ′) Here, if s′c 2 is put together with a constant S, x ′ = x [1 + S {x 2 + (ky) 2 }] (7) y ′ = y [1 + S { x 2 + (ky) 2 }] (8). Further, S is a coefficient determined by the focal length. As is clear from the above equation, the pixel P (x, y, which is separated horizontally and vertically from the center coordinates of the memory by x, y.
The image data to be stored in y) is pixel P ′ (x ′) distant from the center coordinates of x ′ and y ′ times {1 + s (x 2 + (ky) 2 )} times x and y due to optical distortion. , Y ')
Is stored in. Therefore, as described above (in the conventional example), when the image data is read from the memory, the optical distortion is corrected by reading the image data stored at the point P ′ at the timing when the point P should be read. In the above embodiment, if the distance r from the optical axis on the image pickup device is represented by the pixels x and y of the memory, the square root operation such as r = √ (x 2 + y 2 ) is entered according to the theorem of 3 squares. In the present embodiment, the optical distortion characteristic is expressed by D as shown in equation (2).
Since it is approximated as = s ″ · r 2 , the square root calculation and the square calculation cancel each other out, reducing the scale of the calculation circuit. In particular, the calculation of the square root requires a large circuit scale, so that it is very effective. FIG. 5 shows a circuit example of the read control circuit 12 in this embodiment. In FIG. 5, first, since the electronic zoom process is performed, the H address pitch data from the microcomputer 11 (0.
5) and V address pitch data (0.5 in the case of 2 × zoom) are respectively generated in the H address pitch generation circuit 120.
2 and V address pitch generating circuit 1204.
The H start address generation circuit 1201 and the V start address generation circuit 1203 are circuits for generating a processing start address. In this example, “0” is generated as a start address, and these addresses are generated by the latch circuit 12.
Latches 05 and 1207. H start address generation circuit 1201, H address pitch generation circuit 1202,
The modes of the V start address generation circuit 1203 and the V address pitch generation circuit 1204 are switched by the mode selection signal. H address pitch generation circuit 1202 and V
The address pitch output from the address pitch generation circuit 1204 is latched by the latch circuits 1206 and 1208. Latch circuits 1205, 1206, 1207 and 1
208 operates in response to the vertical (V) synchronizing pulse, and the data read from each latch circuit is input to one input terminal of each of the selection circuit 1209, the adder 1211, the selection circuit 1212, and the adder 1214. Supplied. The outputs of the adders 1211 and 1214 are supplied to the other input terminals of the selection circuits 1209 and 1212 which switch and output the inputs in response to the horizontal (H) sync pulse and the V sync pulse, respectively. That is, the selection circuits 1209 and 1212 output the data from the latch circuits 1205 and 1207 at the start, and switch and output the data from the adders 1211 and 1214 from the next address. Selection circuits 1209 and 1
The output of 212 is the latch circuits 1210 and 121, respectively.
It is latched by 3 and the latch output is the clock CLO.
It is supplied as the other input of the adder in response to the CK and H sync pulses, and is output as a zoom output signal.
Such a structure is disclosed in JP-A-2-250469. With such a configuration, the H start address generation circuit 1201 and the V start address generation circuit 12
The start address (0,
From 0), the address in pitch unit determined according to the zoom magnification is output from the latch circuits 1210 and 1213. These latch circuits generate the read timing address in the horizontal direction and the read timing address in the vertical direction. The reading timing of the image memory 5 is the same as that of the scanning of the television, and the reading is performed from the upper left to the lower right. When the coordinate system is set as shown in (A) of the same figure, the upper left is the origin (0, 0), the lower right is (2x 0 , 2y 0 ) and the center is (x 0 ,
y 0 ). In the equations (7) and (8), the center coordinates of the image memory 5 are considered as the origin, whereas the read timing addresses supplied from the latch circuits 1210 and 1213 are as shown in FIG. The upper left is the origin. Therefore, it is necessary to move the origin so that the supplied address becomes the distance information from the central coordinate address (x 0 , y 0 ). The origin movement block circuit A executes such origin movement, and includes the latch circuits 1210 and 121.
From the address value from 3, the center coordinate address value x
It comprises subtraction circuits 1215 and 1216 for subtracting 0 and y 0 , respectively. As a result of this origin movement processing, the coordinate system is shown in FIG.
The coordinate system is as shown in. Next, in the distance calculation block B, the distance calculation in equations (7) and (8): x 2 + (ky) 2 is executed.
The input x is squared by the multiplier 1217 and then added by the adder 121.
8 and the input y is multiplied by the conversion coefficient k in the multiplier 1219, and then squared in the multiplier 1220.
The outputs of 17 and 1220 are added by the adder 1218. The distortion magnification calculation block C is a circuit for calculating [1 + s {x 2 + (ky) 2 }] in the equations (7) and (8), and is supplied from the distance calculation block B by the multiplier 1221. {X 2 + (ky) 2 } is multiplied by the focal length coefficient S determined by the focal length of the zoom lens supplied from the microcomputer 11, and the adder 1222 adds “1” to the multiplication output and outputs it. X'and y'in the equations (7) and (8) are x ',
It is obtained by the multipliers 1223 and 1224 of the y ′ operation block D. The multipliers 1223 and 1224 are the adders 12
The output of 22 is multiplied by x and y output from the subtracters 1215 and 1216, respectively. The x'and y'obtained in this way are the addresses of the xy coordinates when the center is the origin, as shown in FIG. 7B, and as described above, the actual origin of the image memory 5 is the upper left. Therefore, the adder 1 of the origin movement block E is
At 225 and 1226, the coordinates are returned to their original positions by adding the x ', y'center coordinate address values, respectively, as shown in FIG. Through the above processing, the image memory 5
A read address corresponding to the distortion of the image is generated, and if the image memory 5 is read at this read address, an image with the optical distortion corrected can be obtained. The optical distortion characteristics in the description of the above-mentioned embodiments can be approximated by various expressions, and can be approximated with higher accuracy by approximating higher order terms. In the above embodiment, the optical distortion is corrected by the memory read control, but it goes without saying that the memory distortion may be corrected by the memory write control. In the above embodiments, an example in which distortion correction is performed after performing electronic zoom processing has been described, but it is of course possible to perform electronic zoom after performing distortion correction. Next, an embodiment in which the camera shake correction processing unit and the optical distortion correction processing unit are used in common will be described with reference to FIGS. 6 and 7. 6 and 7, the circuit components designated by the same reference numerals as those in FIG. 1 are similar circuit components. In the present embodiment, as shown in FIG. 6, for detecting the amount of camera shake correction, for example,
A motion detector 13 such as an angular velocity sensor is provided, the obtained motion information is sent to the microcomputer 11, and the read control circuit 12 performs the camera shake correction and optical distortion correction processing as described below. In FIG. 7, horizontal motion correction data (H) corresponding to the amount of camera shake from the motion detector 13
And vertical motion correction data (V) are H start address generation circuit 1201 and V start address generation circuit 12
03, the start addresses HS and VS are latched by the latch circuits 1205 and 1207. H address pitch generation circuit 1202 and V address pitch generation circuit 12
Reference numeral 04 is for slightly zooming the image so as not to cause a displacement (angle of view cut) of the image from the prescribed region when a camera shake occurs. For example, a value of 0.9 is set as the pitch information HP and VP. Is output. As a result, the latch circuit 12
The data output from 10 and 1213 are H
S, HS + HP, HS + 2HP, ... and VS, VS + V
P, VS + 2VP, ... The subsequent processing is the same as in FIG. 5, and the camera shake correction and the optical distortion correction processing are performed at the same time. As described above, in the present embodiment described above, all circuits are common except the read control circuit 12,
In the read control circuit, the address generation circuit section for hand-shake correction or electronic zoom processing and the optical distortion correction processing are independent, so that when one function is unnecessary, only one of them can function. Therefore, power saving can be achieved. According to this embodiment, it is possible to obtain an image processing apparatus which is inexpensive and easy to miniaturize. By the way, as described above, the optical distortion is corrected by detecting the focal length information of the optical system and the distance information from the optical axis of the image forming position, and based on this detection information.
Generally, when an image signal is taken out by using a storage type photoelectric conversion element, the storage time of the subject light and the output time are different, and the distortion correction is performed by detecting the focal length information of the optical system during the output period of the video signal. If you do, the focal length information of the optical system during the accumulation period of the output video signal does not necessarily match,
There is an excess or deficiency in the correction. In addition, the focal length of the optical system changes every second, so if the focal length information of the optical system is detected in real time and distortion correction is performed, the amount of distortion correction will differ even within the same screen, resulting in unnatural images. turn into. In the next embodiment of the present invention, the above problem is solved by delaying the information of the optical system during the accumulation period of the output video signal until the timing of reading the corresponding image. That is, information such as the focal length of the optical system is fetched at a predetermined timing in the charge accumulation period of the image sensor, and the timing for giving the zoom coefficient S in the read address generation unit is set at the start of reading the image signal. . The process until the subject light is stored in the image memory and read out will be described with reference to FIG. 8. In response to the vertical synchronizing signal V, a transfer pulse T is sent from the photoelectric conversion unit to the vertical transfer unit. The unnecessary charges are discharged by the unnecessary charge discharging pulse S. In the figure, unnecessary charges are discharged in period A, and charges are accumulated in period B to take in optical system information. In addition, transfer and writing to the memory are performed in the period C, reading from the memory is performed in the period D, and the zoom coefficient S is set at the timing of vertical synchronization. That is,
In this embodiment, the optical system information obtained in the period B is delayed by one screen and read from the memory to set the coefficient. FIG. 9 shows an example of a circuit for detecting optical system information by the microcomputer. Optical system 1 that changes depending on the zoom ratio
The position information of the zoom lens is provided with an external power source E1 connected in series with a variable resistor RV having a movable contact piece that responds to the position of the zoom lens, one end of which is grounded, and the resistor R1. The voltage at the connection point between the variable resistor RV and the resistor R1 whose resistance value changes according to is detected by the voltage detector 111 in the microcomputer 1 to which the timing signals V, T and S are supplied. The microcomputer 11 has a timing control circuit 114, and supplies a timing signal based on the signals V, T, S to each section. The voltage detection unit 111 obtains the moving distance of the zoom lens in the period B, the voltage / focal length conversion unit 112 obtains the focal length information, and then the parameter setting unit 113 sets the parameter at the timing of the timing signal V. Then, the coefficient S is output. In addition to the above embodiment, optical distortion can be corrected at the time of writing image information in the image memory. By doing so, the information of the accumulation period is used as it is in the writing period, so that more accurate distortion correction becomes possible. In the next embodiment, when optical distortion correction is performed, distortion correction coefficients are discretely calculated in a visually inconspicuous range based on the ratio of the change in distortion amount to the change in the state of the optical system such as the focal length. This is intended to reduce the memory capacity. As described above, since the optical distortion is defined by the focal length of the optical system and the distance from the optical axis of the image forming position, it is necessary to change the degree of correction if the focal length changes. However, it is generally said that human beings can detect optical distortion when the distortion ratio is 1% or more. Therefore, it is very complicated to change the correction state one by one according to the focal length, and the fluctuation of the correction due to the focal length detection error may occur. Therefore, in this embodiment, the optical distortion correction is not changed within a range where there is no visual discomfort without setting the steps to be corrected more finely than necessary, that is, the optical distortion is predetermined. If it is within the range, the same correction coefficient is used to reduce the memory capacity and the amount of calculation required for optical distortion correction. FIG. 10 shows the relationship between the focal length of the optical system and the amount of distortion. Regarding FIG. 10, focal length: 6.
Considering the range of 5 mm to 52 mm (8 times), the strain rate is in the range of -18% to + 2.5%, and in order to keep the corrected strain rate within ± 1%, {2.5-(-18)} / {1-(-1)} = 10.25 That is, the focal length may be detected in each of the division ranges divided into at least 11 stages. For example, as shown in FIG. 11, the distortion amount is in the range of + 1% to -1% (the focal length is 1 to 2).
Range), the distortion amount is in the range of -1% to -3% (the focal length is 2
.About.3), -3% to -5%, and when the focal length is within each divided range, the same coefficient is used for distortion correction. From FIG. 2, the amount of strain at the point of r = 100 is the maximum, so if the strain rate at r = 1 falls within the detection limit, the strain becomes even smaller in the range of r <1. The operation processing procedure in the microcomputer of this embodiment will be described with reference to FIG. 12. The corresponding voltage is detected by the same means as the zoom lens position detecting means of FIG. 9 (step S1) and detected. The focal length is converted from the applied voltage (step S2), and the focal length zone is determined (step S3). This zone is a divided range of the focal length change range corresponding to the strain amount change range of ± 1%.
Then, it is determined whether or not the zone is changed (step S
4) If not, the process returns to step S1, and if there is a zone change, the coefficient S is calculated (step S5) and the coefficient is sent to the read address generation block. Still another embodiment of the present invention is a screen cut (angle of view cut) which occurs when electrically correcting optical system distortion.
Is an example of removing by performing the electronic zoom at the same time. As described above, the thread-winding type of optical distortion is Tele.
Side operation is likely to occur, and barrel distortion is likely to occur when operating on the Wide side. Here, when the thread-winding type distortion is generated, as shown in FIG.
As shown in (A), the corner point A at the upper left part of the original image area (rectangular area) is moved inward as shown in (B) of the figure by the conventional optical distortion correction. Is a signal from a portion where there is no photoelectric conversion element, and the angle of view is cut off without an image. Therefore, in this embodiment, the electronic zoom is performed at the same time as the optical distortion correction to prevent the disconnection of the angle of view. The electronic zoom magnification does not have to be a large value, and may be set to a small value that does not cause a break in the angle of view. The hardware configuration therefor is the same as that of FIG. 5, and a value of 0.9 is set as the pitch for setting the zoom magnification set in the H address pitch generation circuit 1202 and the V address pitch generation circuit 1204. Has been done. As the operation at this time, the microcomputer that has input the f value at that time calculates a correction amount for distortion correction based on the f value, and for the electronic zoom for preventing the angle of view cutoff corresponding to this. Both the pitches of H and V are output. Yet another embodiment of the present invention is an image processing apparatus which performs optical distortion correction, in which automatic focusing control (AF),
One or all of automatic exposure control (AE) and automatic white balance control (AWB) can be controlled, and a weighting coefficient given when the control is performed distorts each divided area of the image area. This is an example in which basic information for control and each control are performed using the video signal whose distortion is corrected or changed according to the correction amount. The following control example can be applied to each of the control objects of the AF control, the AE control and the AWB control, but the AF control will be described as an example. The first example is contrast information (basic control parameters) for each divided area.
By changing the weighting value for each area according to the amount of distortion, the effect of the error due to the distortion included in is obtained stably as the resulting weighted contrast information without distortion, and stable automatic Enables focus (AF) control. Further, if the image information after distortion correction is used, stable contrast information can be obtained regardless of distortion, and stable AF control can be performed. Therefore, stable AF control can be performed irrespective of the zoom ratio, image information without distortion can be obtained, and an optical system without a distortion correction lens can be used, so that the size and weight can be reduced. In the second example, a sensor other than the image pickup device for obtaining a video signal is used as a sensor used for detecting contrast information, and the zoom which the light incident on the sensor forms an image on the image pickup device. The same effect can be obtained as long as it is of the TTL type that passes through the lens. In the second example, since the image information that has been electronically distortion-corrected is used to obtain the contrast information for each divided area, stable AF control is performed regardless of the zoom ratio without being affected by the distortion. By including the distortion correction inside the image processing device, it is possible to obtain image information without distortion, and similarly, since an optical system without a distortion correction lens can be used, it is possible to reduce the size and weight. . In the above description, not only the focus (AF) control but also the exposure (AE) control and the white balance (AWB) control can be performed in the same manner as the control target by using the brightness information and the color information as the control reference parameters. The first example will be described with reference to FIG. In FIG. 14, components designated by the same reference numerals as those in FIG. 1 are components having the same function. The optical system 1 has
Zoom encoder 1 for detecting position information of the zoom lens
A, a zoom drive unit 1B for driving and controlling the zoom lens position
And a focus control unit 1C and an aperture drive unit 1D. The zoom lens position information from the zoom encoder 1A is supplied to the microcomputer 11, and the zoom control signal, the focus control signal and the aperture control signal are sent from the microcomputer 11 to the zoom drive unit 1B, the focus control unit 1C and the aperture control unit 1D. As will be described later, the microcomputer 11 receives at least one signal of a contrast signal, a luminance signal and a color signal for each divided area, and appropriate correction data to be multiplied by each area information stored in the correction ROM 14. The (weighting data) is read and the correction data is sent to the read control circuit 12. Read control circuit 12
Sends a control signal to the image memory 5 and the interpolation circuit 6 based on the data stored in the correction ROM 15 through the above-described processing. The correction ROMs 14 and 15 include the microcomputer 11
It is not necessary to obtain necessary data by calculation in the or read control circuit 12. The Y signal output from the image pickup process circuit 3 is directly supplied to the selector 17 after being converted into a contrast information signal by the filter 16 and supplied to the selector 17 as well. Selector 1
7 is a Y signal in response to a selection signal from the microcomputer 11,
Necessary information data is selected from the contrast signal and the C signal. The area integrator circuit 18 integrates the signal selected by the selector 17 for each divided area, and outputs the brightness signal and the color signal obtained from the area integrated signal to the microcomputer 11
As will be described later, focus control based on contrast information, exposure control based on luminance information, and white balance control processing based on color information (color difference signals such as RY signal and BY signal) are performed. . 15 (A) and 15 (B) show examples of weighting values for each divided area before the occurrence of yarn winding distortion and weighting values for each divided area before the occurrence of barrel distortion. . This weighting value shows an example of the calculated value originally set for AF, AE, AWB, etc. in consideration of the possibility that a main subject will be present in the approximate center of the screen. As is clear from the figure, when the thread-wound type distortion occurs, the image in the peripheral portion is distorted, so the correction for the ideal image must be performed correspondingly, and therefore the weighting value must be increased in the peripheral portion. There is. FIG. 16 shows a change in weighting value when barrel distortion occurs and an example of correction thereof. In this example, the weighting value is set for each block including at least pixels, but a 4 × 4 block is treated as one divided area. Area A and area B are deformed by barrel distortion to become area C and area D, respectively. The weighting of each area when there is no distortion is as follows: Area A: {(0x3) + (1x3) + (2x4) + (3x3) + (4x2) + (5x1) } / 16 (=) 2 ... (a) Area B: {(7x1) + (8x2) + (9x3) + (10x4) + (11x3) + (12 (× 2) +13} / 16 = 10 (b) The weighting of each area after the distortion is generated is as follows: Area C: {(7 × 4) + (8 × 4) + (9 × 3)} / 11 (=) 8 ... (c) Area D: {(11x5) + (12x3) + (13x2)} / 10 (=) 12 ... (d) It can be seen that the weighting coefficient has changed even though it is an image component. Therefore, in order to perform the same weighting on the same image before and after the occurrence of distortion, a corrected weighting coefficient is obtained. That is, the weighting of each area after correction is such that area A originally has no image, and therefore area A: (pixel data × number of pixels) / number of pixels = (0 × 16) / 16 = 0 area B: { ((A) × number of pixels of area C projected in area B) + ((b) × number of pixels of area D projected in area B) / (area projected in area B Total number of pixels of C and D) That is, = {(2 × 6) + (10 × 6)} / 12 = 6 Therefore, for area B, the correction coefficient may be set to 6/10. In this way, the correction of the weighting value is performed so that the average value of the products of the weighting value in the case where there is no distortion included in each divided area and the number of pixels of the small blocks is taken as the corrected weighting value. The processing procedure of the embodiment using the signal before distortion correction will be described with reference to FIG. 17. First, it is judged whether or not the automatic control mode is set (step S11), and the automatic control mode is set. When judged, the zoom encoder 1
The microcomputer 11 reads the zoom position information from A (step S12) and codes the distortion correction amount (step S13). Next, the correction coefficient of the weighting value of each area is read by referring to the table data of the distortion correction code (step S14), and the weighting data separately stored in the microcomputer is multiplied by the correction coefficient to calculate the weighting value of each area. Is corrected (step S15), and the selector 17 switches the input of the area integrator 18 (step S1).
6) necessary control reference parameters (contrast information,
Area information of luminance information, color information, etc.) is integrated by the integrator 18 (step S17), and the area integration data is supplied to the microcomputer (read by the microcomputer 11) (step S18). Subsequently, the corrected weighting data is referred to (step S19), the integration data of each area is weighted (step S20), and new control data is calculated. Then, the control data is determined from the weighted area integration data (step S21). Then, control data is output (step S22), and step S1
Return to processing of 1. Next, as a second example, an embodiment using a distortion-corrected signal will be described. FIG. 18 is a block diagram of the configuration of this embodiment, and the circuit parts denoted by the same reference numerals as those in FIG. 14 are circuit parts having the same function. In this embodiment, the Y signal and the C signal whose distortion is corrected by the interpolation circuit 6 are used, and the contrast information is obtained by the filter 16.
Distortion corrected contrast signal Y
The control reference parameters of the signal and the C signal are supplied, and a desired signal is supplied to the area integrator 18 by the selection signal from the microcomputer 11. The area integrator 18 performs area integration on the input signal and supplies the integrated value to the microcomputer 11. The processing procedure of this embodiment will be described with reference to FIG. First, it is determined whether or not it is the automatic control mode (step S31), and if it is the automatic control mode, the input of the area integrator 18 is switched and the necessary control reference parameter is output (step S32). Area integration is performed by the area integrator (step S33), and area integration data is calculated (step S34). Next, the weighting data is referred to (step S35), and the integration data of each area is weighted (step S3).
6) After performing arithmetic processing of new control data for obtaining control data from the weighted area integration data (step S37), the control data is output (step S3).
8) and returns to the process of step S31. Summarizing the above embodiments, the video processing apparatus according to the present invention can have the following configuration. (1) conversion means for converting a video signal obtained by photoelectrically converting an image by an optical system into video data corresponding to the video signal; and the video data when writing or reading the video data by the conversion means into the storage means. Distortion correcting means for giving data a correction corresponding to the distortion of the image by the optical system, and for obtaining a zooming effect for the video image with respect to the video data when writing or reading the video data by the converting means into the storage means. And an electronic zoom means configured to share the circuit portion of the distortion correction means at least partially in order to provide the above conversion. (2) Conversion means for converting a video signal obtained by photoelectrically converting an image by an optical system into video data corresponding to the video signal, and the video when writing or reading the video data by the conversion means into the storage means. In a video processing device provided with distortion correction means for giving data a correction corresponding to the distortion of an image by the optical system, the distortion correction means makes a correction according to the state of the optical system which is the basis of the correction processing of the video signal. It includes a timing adjusting unit for setting the acquisition timing of the image data (correction parameter S corresponding to the zoom position) to a predetermined phase relationship with the acquisition timing of the video data. (3) Conversion means for converting a video signal obtained by photoelectrically converting an image by the optical system into video data corresponding to the video signal, and the video when writing or reading the video data by the conversion means into the storage means. In a video processing device provided with distortion correction means for giving data a correction corresponding to image distortion caused by the optical system, the distortion correction means changes the degree of image distortion corresponding to the change in the focal length of the optical system. Correction data as data to be applied to a focal length section (where the change in distortion becomes steeper with respect to the change in focal length becomes narrower) that is within a predetermined range is the basis for the correction processing of the video signal. It is configured as data in preparation for the data holding means. (4) Conversion means for converting a video signal obtained by photoelectrically converting an image by the optical system into video data corresponding to the video signal, and the video data when writing or reading the video data by the conversion means into the storage means. Distortion correction means for applying a first correction corresponding to image distortion due to the optical system to data, and avoiding that the image corresponding to the image data corrected by the first correction deviates from a predetermined in-screen area Adjusting means for adding a second correction (electronic zoom) for adjusting the first correction to the first correction. (5) Conversion means for converting a video signal obtained by photoelectrically converting an image by the optical system into video data corresponding to the video signal, and the video when the video data by the conversion means is written to or read from the storage means. Distortion correction means for applying a correction corresponding to image distortion caused by the optical system to data, and a weighting coefficient set for each of a plurality of regions in the screen relating to the video signal are applied to sharpen an image from these plurality of regions. Focusing information adjustment detecting means adapted to add the degree of correction corresponding to the image distortion to the weighting coefficient when obtaining the focusing information, the photometric information, or the whitight balance information relating to the degree. Therefore, it is needless to say that the present invention can be used by combining one or more kinds of the above-mentioned embodiments, and various modifications can be made without departing from the gist of the present invention. As described above, according to the image processing apparatus of the present invention, the electronic zoom, camera shake correction and optical distortion correction processing functions can be realized while suppressing an increase in circuit scale.
Enables downsizing and cost reduction.

【図面の簡単な説明】 【図1】本発明による映像処理装置の一実施例を示す構
成ブロック図である。 【図2】本発明の実施例動作を説明するためのズームレ
ンズの光学歪み特性の一例を示す図である。 【図3】本発明の実施例動作を説明するための図であ
る。 【図4】本発明の実施例動作を説明するための図であ
る。 【図5】図1に示す実施例における電子ズーム機能と光
学歪み補正機能を実現する回路例である。 【図6】本発明の他の実施例における映像処理装置の構
成ブロック図である。 【図7】図6に示す実施例における手ぶれ補正機能と光
学歪み補正機能を実現する回路例である。 【図8】本発明の更に他の実施例における映像処理装置
の動作を説明するためのタイミングチャートである。 【図9】図8に示す実施例におけるズームレンズ位置情
報の検出部の構成ブロック図である。 【図10】本発明の実施例を説明するための光学系の焦
点距離と歪量との関係を示す図である。 【図11】本発明の実施例を説明するための光学系の焦
点距離と歪み率との関係を示す図である。 【図12】本発明の他の実施例の構成と動作処理手順を
示す図である。 【図13】本発明の更に他の実施例を説明するための図
である。 【図14】本発明の他の実施例の構成ブロック図であ
る。 【図15】図14に示す実施例を説明するための図であ
る。 【図16】図14に示す実施例を説明するための図であ
る。 【図17】図14に示す実施例の動作処理手順を示すフ
ローチャートである。 【図18】図14に示す実施例の基準原理に基づく他の
構成例ブロック図である。 【図19】図18に示す実施例の動作処理手順を示すフ
ローチャートである。 【図20】光学系歪みの例を示す図である。 【図21】光学系歪みの補正を説明するための図であ
る。 【図22】従来の映像処理装置の構成ブロック図であ
る。 【符号の説明】 1 光学系 2 撮像素子 3 撮像プロセス回路 4 A/Dコンバータ 5 画像メモリ 6 補間回路 7 D/Aコンバータ 8 TG回路 9 SSG回路 10 ライトコントロール回路 11 マイコン 12A,12 リードコントロール回路 13 動き検出器 14,15、19 補正ROM 16 フィルタ 17 セレクタ 18 エリア積分器
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration block diagram showing an embodiment of a video processing device according to the present invention. FIG. 2 is a diagram showing an example of optical distortion characteristics of the zoom lens for explaining the operation of the embodiment of the present invention. FIG. 3 is a diagram for explaining the operation of the embodiment of the present invention. FIG. 4 is a diagram for explaining the operation of the embodiment of the present invention. 5 is an example of a circuit that realizes an electronic zoom function and an optical distortion correction function in the embodiment shown in FIG. FIG. 6 is a configuration block diagram of a video processing device according to another embodiment of the present invention. 7 is an example of a circuit that realizes a camera shake correction function and an optical distortion correction function in the embodiment shown in FIG. FIG. 8 is a timing chart for explaining the operation of the video processing device according to still another embodiment of the present invention. 9 is a configuration block diagram of a detection unit of zoom lens position information in the embodiment shown in FIG. FIG. 10 is a diagram showing the relationship between the focal length and the distortion amount of the optical system for explaining the embodiment of the present invention. FIG. 11 is a diagram showing the relationship between the focal length and the distortion rate of the optical system for explaining the example of the present invention. FIG. 12 is a diagram showing the configuration and operation processing procedure of another embodiment of the present invention. FIG. 13 is a diagram for explaining still another embodiment of the present invention. FIG. 14 is a configuration block diagram of another embodiment of the present invention. FIG. 15 is a diagram for explaining the embodiment shown in FIG. 16 is a diagram for explaining the embodiment shown in FIG. 17 is a flowchart showing an operation processing procedure of the embodiment shown in FIG. 18 is a block diagram of another configuration example based on the reference principle of the embodiment shown in FIG. FIG. 19 is a flowchart showing an operation processing procedure of the embodiment shown in FIG. FIG. 20 is a diagram showing an example of optical system distortion. FIG. 21 is a diagram for explaining correction of optical system distortion. FIG. 22 is a configuration block diagram of a conventional video processing device. [Explanation of Codes] 1 Optical system 2 Image sensor 3 Imaging process circuit 4 A / D converter 5 Image memory 6 Interpolation circuit 7 D / A converter 8 TG circuit 9 SSG circuit 10 Write control circuit 11 Microcomputer 12A, 12 Read control circuit 13 Motion detectors 14, 15, 19 Correction ROM 16 Filter 17 Selector 18 Area integrator

───────────────────────────────────────────────────── フロントページの続き (72)発明者 師 橋 大 吉 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 井 上 淳 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor, teacher Daikichi Hashi             2-43 Hatagaya, Shibuya-ku, Tokyo Ori             Inside Npus Optical Industry Co., Ltd. (72) Inventor Jun Inoue             2-43 Hatagaya, Shibuya-ku, Tokyo Ori             Inside Npus Optical Industry Co., Ltd.

Claims (1)

【特許請求の範囲】 光学系による像を光電変換して得た映像信号をこの映像
信号に対応する映像データに変換する変換手段と、 上記変換手段による映像データを当該記憶手段に書き込
み又は読み出しするに際して該映像データに上記光学系
による像の歪みに対応した補正を与える歪補正手段と、 上記変換手段による映像データを当該記憶手段に書き込
み又は読み出しするに際して該映像データに上記光学系
により像を得るについての手振れに対応した補正を与え
るべく上記歪補正手段の当該回路部を少なくとも部分的
に共用して構成された手振れ補正手段と、を有してなる
ことを特徴とする映像処理装置。
Claim: What is claimed is: 1. A conversion means for converting a video signal obtained by photoelectrically converting an image by an optical system into video data corresponding to the video signal, and writing or reading the video data by the conversion means into the storage means. At this time, distortion correction means for applying correction to the image data corresponding to image distortion by the optical system, and image data obtained by the optical system for writing or reading the image data by the conversion means in the storage means The image processing apparatus includes: a camera shake correction unit configured to share at least a part of the circuit portion of the distortion correction unit to provide a correction corresponding to the camera shake.
JP4751393A 1993-02-10 1993-02-10 Video equipment Expired - Fee Related JP3332977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4751393A JP3332977B2 (en) 1993-02-10 1993-02-10 Video equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4751393A JP3332977B2 (en) 1993-02-10 1993-02-10 Video equipment

Related Child Applications (5)

Application Number Title Priority Date Filing Date
JP25789393A Division JP3260929B2 (en) 1993-10-15 1993-10-15 Video processing device
JP25789293A Division JP3297511B2 (en) 1993-10-15 1993-10-15 Video processing device
JP25789193A Division JP3548204B2 (en) 1993-10-15 1993-10-15 Video processing equipment
JP25789093A Division JP3299824B2 (en) 1993-10-15 1993-10-15 Video equipment
JP5257889A Division JPH06237404A (en) 1993-10-15 1993-10-15 Video processing unit

Publications (2)

Publication Number Publication Date
JPH06237411A true JPH06237411A (en) 1994-08-23
JP3332977B2 JP3332977B2 (en) 2002-10-07

Family

ID=12777197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4751393A Expired - Fee Related JP3332977B2 (en) 1993-02-10 1993-02-10 Video equipment

Country Status (1)

Country Link
JP (1) JP3332977B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825415A (en) * 1993-12-17 1998-10-20 Canon Kabushiki Kaisha Electronic image-movement correcting device with a variable correction step feature
WO2003075557A1 (en) * 2002-03-05 2003-09-12 Sony Corporation Image pickup device and chromatic aberration correction method
KR100982127B1 (en) * 2003-02-06 2010-09-14 소니 주식회사 Image recording/reproducing apparatus, image pick-up apparatus, and color aberration correcting method
US8466969B2 (en) 2009-05-25 2013-06-18 Sony Corporation Imaging apparatus and shake correcting method
US8692908B2 (en) 2007-07-09 2014-04-08 Canon Kabushiki Kaisha Image-pickup apparatus and a zoom lens for the image-pickup apparatus, with distortion correction
CN112333385A (en) * 2020-10-28 2021-02-05 维沃移动通信有限公司 Electronic anti-shake control method and device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825415A (en) * 1993-12-17 1998-10-20 Canon Kabushiki Kaisha Electronic image-movement correcting device with a variable correction step feature
US6424372B1 (en) 1993-12-17 2002-07-23 Canon Kabushiki Kaisha Electronic image-movement correcting device with a variable correction step feature
WO2003075557A1 (en) * 2002-03-05 2003-09-12 Sony Corporation Image pickup device and chromatic aberration correction method
CN100384221C (en) * 2002-03-05 2008-04-23 索尼株式会社 Image pickup device and chromatic aberration correction method
US7397499B2 (en) 2002-03-05 2008-07-08 Sony Corporation Image pickup device and chromatic aberration correction method
KR100957261B1 (en) * 2002-03-05 2010-05-12 소니 주식회사 Image pickup device and chromatic aberration correction method
KR100982127B1 (en) * 2003-02-06 2010-09-14 소니 주식회사 Image recording/reproducing apparatus, image pick-up apparatus, and color aberration correcting method
US8692908B2 (en) 2007-07-09 2014-04-08 Canon Kabushiki Kaisha Image-pickup apparatus and a zoom lens for the image-pickup apparatus, with distortion correction
US8466969B2 (en) 2009-05-25 2013-06-18 Sony Corporation Imaging apparatus and shake correcting method
CN112333385A (en) * 2020-10-28 2021-02-05 维沃移动通信有限公司 Electronic anti-shake control method and device
CN112333385B (en) * 2020-10-28 2022-02-22 维沃移动通信有限公司 Electronic anti-shake control method and device

Also Published As

Publication number Publication date
JP3332977B2 (en) 2002-10-07

Similar Documents

Publication Publication Date Title
US6342918B1 (en) Image-shake correcting device having first and second correcting means and control means for proportionately applying same
US6982756B2 (en) Digital camera, image signal processing method and recording medium for the same
US9451160B2 (en) Imaging apparatus and method for controlling the imaging apparatus
US6424372B1 (en) Electronic image-movement correcting device with a variable correction step feature
US8350951B2 (en) Image sensing apparatus and image data correction method
US20060087707A1 (en) Image taking apparatus
US5990942A (en) Photographing apparatus using image information for blurring correction
JP2005328421A (en) Imaging apparatus and imaging method
JP3297511B2 (en) Video processing device
JP3260929B2 (en) Video processing device
JP3332977B2 (en) Video equipment
JP3614617B2 (en) Image motion correction device
US20030218687A1 (en) Image sensing apparatus and image sensing method
JP3548204B2 (en) Video processing equipment
JPH06237404A (en) Video processing unit
JP3299824B2 (en) Video equipment
JPH10155158A (en) Image pickup device and processing method for color image signal
JP4503106B2 (en) Information processing apparatus and method, information processing system, and recording medium
JPH0767025A (en) Video processor
JP2792767B2 (en) Imaging device
JP2840401B2 (en) Video camera equipment
JPH0787372A (en) Image pickup device
JP4195950B2 (en) Image motion correction device
JPH11331678A (en) Digital camera device
JPH09172579A (en) Image pickup device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080726

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090726

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100726

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100726

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110726

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120726

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees