JPH06343159A - Image recording and reproducing system provided with image stabilizing function - Google Patents

Image recording and reproducing system provided with image stabilizing function

Info

Publication number
JPH06343159A
JPH06343159A JP5332436A JP33243693A JPH06343159A JP H06343159 A JPH06343159 A JP H06343159A JP 5332436 A JP5332436 A JP 5332436A JP 33243693 A JP33243693 A JP 33243693A JP H06343159 A JPH06343159 A JP H06343159A
Authority
JP
Japan
Prior art keywords
image
information
blur
data
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5332436A
Other languages
Japanese (ja)
Other versions
JP3129069B2 (en
Inventor
Manabu Inoue
学 井上
Keiji Tamai
啓二 玉井
Shigeaki Imai
重晃 今井
Katsuyuki Nanba
克行 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP05332436A priority Critical patent/JP3129069B2/en
Publication of JPH06343159A publication Critical patent/JPH06343159A/en
Application granted granted Critical
Publication of JP3129069B2 publication Critical patent/JP3129069B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To more accurately perform the restoration of source images by an image processing in a system composed of a photographing device for recording a subject in a prescribed recording medium and a reproducing device for reproducing recorded images provided with a function for image stabilization by the image processing on the side of the reproducing device. CONSTITUTION:A camera detects the shake and records the shake information on a film. On the other hand, in the reproducing device, the images recorded on the film 81 are converted to electric signals by an area sensor 83 and inputted to an arithmetic part 86. The arithmetic part 86 corrects the shake of subject images based on the shake information read by an information read part 89. At this time, prescribed image information which can not be obtained from the photographed subject images is outputted from an information storage part 91 to the arithmetic part 86. Since the prescribed image information is inputted from the information storage part 91 other than the information of the photographed subject images and the information of the shake to the arithmetic part 86, at the time of restoring the source images by mathematical operations, it can be prevented that a part of the solution is undefined.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カメラ等の撮影装置、
及びその撮影装置によって撮影された画像を再生する再
生装置からなる、画像記録・再生システムに関する。さ
らに詳しくは、手ブレ状態で撮影された場合において
も、撮影装置側でブレに関する情報を検出し、再生装置
側でそのブレ情報に基づいて再生画像のブレを補正する
システムに関する。
BACKGROUND OF THE INVENTION The present invention relates to a photographing device such as a camera,
The present invention also relates to an image recording / playback system including a playback device that plays back an image captured by the image capturing device. More specifically, the present invention relates to a system in which even when a photograph is taken in a camera shake state, information about blurring is detected on the side of the photographing device and the blurring of the reproduced image is corrected on the side of the reproducing device based on the blurring information.

【0002】[0002]

【従来の技術】従来から、銀塩カメラやビデオカメラに
おいて、ブレを補正する装置が多く提案されている。こ
れらは角速度センサなどを用いてカメラの振動(手ブ
レ)を検出し、検出されたブレ情報に基づいて撮影光学
系を駆動することにより被写体像がブレるのを防いでい
る。またビデオカメラにおいては、撮影光学系を駆動す
る代わりに、撮像センサの画像読み出し範囲をブレの方
向・速度にあわせてシフトさせる方法も提案されてい
る。この方法は、ビデオカメラでは撮像時に被写体が移
動した場合、被写体像は撮像領域内の所定の画像読出範
囲外にシフトして結像されるから、このシフトした画像
が撮像センサの撮像領域内にある場合は、画像読出範囲
を上記シフトした量だけずらせて撮像画像を読み出すよ
うにしたものである。
2. Description of the Related Art Conventionally, many devices for correcting blur have been proposed for silver halide cameras and video cameras. They detect camera vibrations (camera shake) using an angular velocity sensor or the like, and drive the photographing optical system based on the detected blur information to prevent the subject image from blurring. Also, in the video camera, a method of shifting the image reading range of the image sensor according to the direction and speed of the blur has been proposed instead of driving the photographing optical system. According to this method, when a subject moves during image capturing with a video camera, the subject image is formed by shifting out of a predetermined image reading range within the image capturing area, and thus the shifted image is within the image capturing area of the image sensor. In some cases, the captured image is read by shifting the image read range by the above-mentioned shifted amount.

【0003】しかしながらこれらのブレ補正装置はいず
れもカメラに備えられていた。ブレ補正装置をカメラに
設ける場合、補正のための光学系やその駆動装置を設け
なければならず、カメラの大型化や重量の増大という問
題があった。また上記の撮像センサの画像読み出し範囲
をシフトさせる方法においても、ブレ補正のためにシフ
ト量の検出及びシフト量に応じた読出範囲の変更制御を
要するため、制御や構成が複雑化し、カメラの高価格化
という問題があった。
However, all of these blur correction devices are provided in the camera. When the camera shake is provided with the shake correction device, an optical system for correction and a drive device therefor must be provided, which causes a problem of increasing the size and weight of the camera. Further, even in the above method of shifting the image reading range of the image sensor, it is necessary to detect the shift amount and control the change of the reading range according to the shift amount in order to correct the blurring. There was a problem of price reduction.

【0004】本願出願人は上記問題点を解決する方法と
して、本願と同日付け出願において、カメラ側ではブレ
を検出してそのブレ情報を記録し、再生装置側ではカメ
ラ側で記録したブレ情報に基づいて画像処理によって再
生画像のブレを補正するというシステムを提案してい
る。この方法によればカメラ側にブレ補正装置を設ける
必要がなく、カメラの大型化や高価格化を防ぐことがで
きる。
As a method for solving the above-mentioned problems, the applicant of the present application, in the application filed on the same date as the present application, detects the blur on the camera side and records the blur information, and on the reproducing device side, the blur information recorded on the camera side. Based on this, we propose a system that corrects the blurring of reproduced images by image processing. According to this method, it is not necessary to provide a camera shake correction device on the camera side, and it is possible to prevent the camera from becoming large and expensive.

【0005】上記の画像処理によるブレ補正の一例とし
て、カメラ側で検出したブレの特性を示す関数(以下、
劣化関数という)を用いて、ブレによって劣化した画像
を補正するという方法があげられている。しかしなが
ら、その画像処理の入力がブレ画像の画像データと劣化
関数だけでは、数学的に求めたい原画像(ブレる前の画
像)の解が不定となる場合が多い。そこで、その不定と
なる解の一部をある値に仮定あるいは近似しなければな
らない、という問題が新たに生じる。
As an example of the blur correction by the above image processing, a function (hereinafter,
There is a method of correcting an image deteriorated due to blur by using a deterioration function). However, in many cases, the input of the image processing is only the image data of the blurred image and the deterioration function, and the solution of the original image (image before the blur) desired to be mathematically determined is indefinite. Then, a new problem arises that a part of the indefinite solution must be assumed or approximated to a certain value.

【0006】[0006]

【発明が解決しようとする課題】そこで本発明では、上
述従来例の問題点を解決し、カメラ側にはブレ補正装置
を設けずにブレ検出装置だけを設け、再生装置側に画像
処理によってブレを補正する装置を設けた画像記録・再
生システムにおいて、上記画像処理による原画像の復元
をより正確なものにすることを目的とする。
SUMMARY OF THE INVENTION Therefore, the present invention solves the problems of the above-mentioned conventional example, that is, the camera side is not provided with the shake correction device but only the shake detection device is provided, and the playback device side is provided with the image processing. It is an object of the present invention to make the restoration of an original image by the above image processing more accurate in an image recording / reproducing system provided with a device for correcting the above.

【0007】[0007]

【課題を解決するための手段】このような目的を達成す
るために、本発明の画像記録・再生システムにおいて
は、ブレに関する情報を検出するブレ検出手段と、予め
定められた所定の画像情報を出力する出力手段と、これ
らの手段から出力されるブレ情報及び所定の画像情報に
基づいて、再生される画像のブレを補正することを特徴
とする。(請求項1) また請求項2の発明においては、前記出力手段が出力す
る所定の画像情報はある特定の一定値であることを特徴
とする。
In order to achieve such an object, in the image recording / reproducing system of the present invention, a blur detecting means for detecting information on blur and a predetermined predetermined image information are provided. It is characterized in that the blur of the reproduced image is corrected based on the output means for outputting and the blur information and the predetermined image information outputted from these means. (Claim 1) Further, in the invention of claim 2, the predetermined image information output by the output means is a certain specific value.

【0008】請求項3の発明においては、前記出力手段
が出力する所定の画像情報は、被写体画像の画像情報か
ら求められることを特徴とする。
According to a third aspect of the invention, the predetermined image information output by the output means is obtained from the image information of the subject image.

【0009】請求項4の発明においては、カメラ側には
被写体画像を記録媒体に記録する第1記録手段と、それ
とは別に、被写体画像に関する情報を記録する第2記録
手段が設けられている。一方、再生装置側には、カメラ
側で検出されたブレ情報と、第2記録手段によって記録
される被写体画像に関する情報とに基づいて再生画像の
ブレを補正する補正手段が設けられている。
In the invention of claim 4, the camera side is provided with the first recording means for recording the subject image on the recording medium and the second recording means for recording the information about the subject image separately from the first recording means. On the other hand, the reproducing device side is provided with a correcting unit that corrects the blur of the reproduced image based on the blur information detected by the camera side and the information about the subject image recorded by the second recording unit.

【0010】[0010]

【作用】請求項1の発明によると、ブレ補正のための画
像処理において、撮影された画像からは得られない入力
データの代わりに、上記出力手段によって出力される所
定の画像情報を入力するので、原画像を復元するための
数学的演算において解が不定となることを防ぐことがで
きる。
According to the first aspect of the present invention, in the image processing for blur correction, the predetermined image information output by the output means is input instead of the input data that cannot be obtained from the captured image. , It is possible to prevent the solution from becoming indefinite in the mathematical operation for restoring the original image.

【0011】請求項2の発明によると、出力手段によっ
て出力される所定の画像情報は特定の一定値であるた
め、撮影装置側に画像情報を得るための構成を設けた
り、再生装置側で画像情報を求めるための演算を行った
りする必要がなく、簡単な構成のシステムを実現するこ
とができる。
According to the second aspect of the invention, since the predetermined image information output by the output means has a specific constant value, a structure for obtaining the image information is provided on the photographing device side or the image is reproduced on the reproducing device side. It is possible to realize a system having a simple configuration without the need to perform a calculation for obtaining information.

【0012】請求項3によると、出力手段によって出力
される所定の画像情報は被写体画像の画像情報から求め
られるので、上記のように特定の一定値を入力して画像
処理を行うよりもより正確に原画像を復元することがで
きる。
According to the third aspect, since the predetermined image information output by the output means is obtained from the image information of the subject image, it is more accurate than performing the image processing by inputting a specific constant value as described above. The original image can be restored.

【0013】請求項4によると、撮影装置側に被写体画
像を記録するための第1記録手段とは別に、第2記録手
段が設けられている。この第2記録手段はブレ補正のた
めの画像処理に用いられるデータを記録するために設け
られたものである。第2記録手段は、第1記録手段によ
る被写体撮影の際に、ブレる前の被写体の情報(原画像
の情報)を得ることが可能である。この原画像の情報を
ブレ補正の画像処理に入力することにより、上記のよう
に特定の一定値を入力した場合や、ブレた画像の画像情
報から求められた値を入力した場合に比べて、より正確
に原画像を復元することが可能となる。
According to the fourth aspect, the second recording means is provided on the side of the photographing device in addition to the first recording means for recording the subject image. The second recording means is provided for recording data used for image processing for blur correction. The second recording unit can obtain information on the subject before blurring (information on the original image) when the subject is photographed by the first recording unit. By inputting the information of this original image to the image processing of the blur correction, as compared with the case where a specific constant value is input as described above or the value obtained from the image information of the blurred image is input, The original image can be restored more accurately.

【0014】[0014]

【実施例】以下本発明の実施例を図面を参照しながら説
明する。なお本実施例においては、撮影装置には銀塩カ
メラを用い、再生装置には銀塩カメラによってフィルム
上に記録された画像をテレビモニタ上に再生するフィル
ムビデオプレーヤーを用いて説明を行うものとする。
Embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, a silver-salt camera is used as the photographing device, and a film-video player that reproduces an image recorded on the film by the silver-salt camera on a television monitor is used as the reproducing device. To do.

【0015】図1は本発明にかかる画像記録・再生シス
テムの外観図である。1はブレ検出機能を有するカメラ
であり、検出したブレ情報は撮影した画像とともに、フ
ィルム上に記録されるものとする。このブレ情報の詳細
については、後述する。撮影が終了したフィルムは、現
像所において現像された後、カートリッジ2に収納され
た形で撮影者に返却される。3は再生装置であり、カー
トリッジ2が装填されると、フィルム上に記録された画
像をCCD(Charge Coupled Device)等からなるエリ
アセンサで光電変換して読み取り、電気信号に変換され
た画像をテレビモニタ4上に再生する。なお、再生装置
3はブレを補正する機能を有しており、カメラ1によっ
てフィルム上に記録されたブレ情報に基づき画像処理に
よってブレ補正を行う。従って、手ぶれ状態で撮影され
た画像であっても、テレビモニタ4にはブレが補正され
た鮮明な画像が再生される。
FIG. 1 is an external view of an image recording / reproducing system according to the present invention. Reference numeral 1 denotes a camera having a blur detection function, and the detected blur information is recorded on a film together with a captured image. The details of this blur information will be described later. The film which has been photographed is developed in a developing room and then returned to the photographer in the form of being housed in the cartridge 2. When a cartridge 2 is loaded, a reproducing device 3 reads an image recorded on a film by photoelectrically converting it with an area sensor such as a CCD (Charge Coupled Device) and reads the image converted into an electric signal on a television. Play back on monitor 4. The reproducing device 3 has a function of correcting blur, and performs blur correction by image processing based on the blur information recorded on the film by the camera 1. Therefore, even if the image is taken in a camera shake state, a clear image with the shake corrected is reproduced on the television monitor 4.

【0016】図2は本発明にかかる、ブレ検出機能を有
するカメラ1の外観図である。カメラ1は、ブレ情報検
出用の被写体の画像を読み取るための撮像部を備えてい
る。撮像部は、上記被写体の光像を電気信号に光電変換
して読み取るブレ検出センサ14とそのブレ検出センサ
14の撮像面上に被写体像を結像する光学系13とから
なる。上記光学系13は、フィルム面12上に撮影用の
被写体像を結像する撮影レンズ11の上部に設けられ、
ブレ検出センサ14は上記光学系13の光軸上の後方適
所に設けられている。
FIG. 2 is an external view of the camera 1 having the blur detection function according to the present invention. The camera 1 includes an imaging unit for reading an image of a subject for detecting blur information. The image pickup unit includes a blur detection sensor 14 that photoelectrically converts the optical image of the subject into an electrical signal and reads the optical signal, and an optical system 13 that forms a subject image on the imaging surface of the blur detection sensor 14. The optical system 13 is provided above the photographing lens 11 that forms a subject image for photographing on the film surface 12,
The blur detection sensor 14 is provided at an appropriate rear position on the optical axis of the optical system 13.

【0017】シャッタボタン15は、測光・測距の指示
及びレリーズを指示する操作ボタンで、シャッタボタン
15の操作に連動して後述のスイッチS1,S2がON
・OFFするようになっている。
The shutter button 15 is an operation button for instructing photometry / distance measurement and release, and switches S1 and S2 to be described later are turned on in conjunction with the operation of the shutter button 15.
・ Turns off.

【0018】スイッチS1がONになると、測光及び測
距が行なわれ、AF(Auto Focus)制御及び露出制御値
の設定が行なわれる。スイッチS2がONになると、設
定された露出制御値に基づき撮影(露出制御)が行なわ
れると共に、この露出制御期間中に上記ブレ検出センサ
14によりその撮影画像に対するブレ情報が演算され
る。なお、ブレ情報の演算の詳細については後述する。
When the switch S1 is turned on, photometry and distance measurement are performed, and AF (Auto Focus) control and exposure control value setting are performed. When the switch S2 is turned on, shooting (exposure control) is performed based on the set exposure control value, and during the exposure control period, the blur detection sensor 14 calculates blur information for the captured image. The details of the calculation of the blur information will be described later.

【0019】図3は上記カメラ1の主要部を示すブロッ
ク図である。21はメインCPUであり、カメラ全体の
制御を行う。SPD(Silicon Photo Diode)からなる測
光センサ22及び測光部23は、被写体輝度を測定する
もので、測光センサ22で検出された輝度信号は測光部
23に入力され、測光部23は、この輝度信号に基づい
て測光値を演算する。この演算結果は、メインCPU2
1に入力される。撮影レンズ11は焦点調節駆動部24
を通して焦点調節が行われる。撮影レンズ回路25に
は、撮影レンズ11に固有のレンズのF値、焦点距離
f、等が記憶されている。シャッタ羽根26は、シャッ
タ駆動部27によって駆動される。フィルム巻き上げ部
28はカメラに装填されたフィルムの巻き上げ及び巻き
戻しを行う。AFモジュール29は焦点検出動作を行
い、被写体までの距離を検出する。
FIG. 3 is a block diagram showing the main part of the camera 1. A main CPU 21 controls the entire camera. The photometric sensor 22 and the photometric unit 23, which are SPDs (Silicon Photo Diodes), measure the subject brightness. The brightness signal detected by the photometric sensor 22 is input to the photometric unit 23, and the photometric unit 23 uses the brightness signal. The photometric value is calculated based on. The result of this calculation is the main CPU 2
Input to 1. The taking lens 11 is a focus adjustment drive unit 24.
Focus adjustment is performed through. The photographic lens circuit 25 stores the F-number of the lens unique to the photographic lens 11, the focal length f, and the like. The shutter blades 26 are driven by the shutter drive unit 27. The film winding unit 28 winds and rewinds the film loaded in the camera. The AF module 29 performs a focus detection operation to detect the distance to the subject.

【0020】スイッチS1はシャッタボタン15の第1
ストロークでオンし、測光及びAF動作を開始させる。
スイッチS2はシャッタボタン15の第2ストロークで
オンし、レリーズ動作を開始させる。露出補正量入力部
30は、測光部23の測光結果に基づいてメインCPU
21により設定される露出制御値を補正する場合に、そ
の補正量を入力するものである。
The switch S1 is the first shutter button 15
It is turned on with a stroke to start photometry and AF operation.
The switch S2 is turned on by the second stroke of the shutter button 15 to start the release operation. The exposure correction amount input unit 30 is a main CPU based on the photometric result of the photometric unit 23.
When the exposure control value set by 21 is corrected, the correction amount is input.

【0021】ブレ検出部32は、撮影レンズ11によっ
てフィルム上に結像された被写体像の移動量(像ブレ
量)を検出するものである。ブレ検出部32は後述する
ように、露光時間中に所定時間ごとに被写体像の結像位
置を複数回検出し、各結像位置と撮影開始直後の被写体
像の結像位置(初期結像位置)とを比較して所定時間ご
との被写体像の移動量を検出する。この各移動量は、初
期結像位置に対する所定時間経過後の結像位置の距離と
して算出され、この算出結果はその撮影画像のブレ情報
として情報書込部33によりフィルム上に記録される。
この情報書込部33は、ブレ検出部32によって検出さ
れたブレ情報のほかに、日付や露出値等の撮影情報もフ
ィルム上に記録する。この場合、フィルム上に光学的に
写しこんでもよいし、また磁気ヘッドなどを備え、磁気
的にフィルム上に記録してもよい。なお、フィルム上に
光学的あるいは磁気的に情報を記録する技術は、既に公
知であるのでこれに関する説明は省略する。
The blur detection unit 32 detects the amount of movement (image blur amount) of the subject image formed on the film by the taking lens 11. As will be described later, the blur detection unit 32 detects the image forming position of the subject image a plurality of times at every predetermined time during the exposure time, and determines each image forming position and the image forming position of the subject image immediately after the start of the photographing (initial image forming position). ) Is detected to detect the amount of movement of the subject image every predetermined time. Each moving amount is calculated as a distance of the image forming position after a predetermined time elapses from the initial image forming position, and the calculation result is recorded on the film by the information writing unit 33 as blurring information of the captured image.
The information writing unit 33 records the shooting information such as the date and the exposure value on the film in addition to the shake information detected by the shake detecting unit 32. In this case, it may be optically imprinted on the film, or may be magnetically recorded on the film by including a magnetic head or the like. Since the technique of recording information optically or magnetically on a film is already known, a description thereof will be omitted.

【0022】次に図4を参照して、ブレ検出部32の内
容を説明する。ブレ検出センサ14は、CCDからなる
撮像部41(以下、CCD41という)、CCD41か
ら出力される画像信号を増幅する出力アンプ42及びC
CD41に結像された被写体像の照度をモニタする照度
モニタ回路43を含み、上記CCD41の撮像動作の制
御、すなわち、電荷蓄積時間(積分時間)の制御は、ク
ロックジェネレーター45により行なわれるようになっ
ている。CCD41は、入射光をRGBの3原色に分光
する分光フィルタ64を備えており、RGBそれぞれの
色成分を電気信号に変換して出力する。またブレ検出セ
ンサ14は、センサデータメモリ65を備えている。こ
のメモリ65にはCCD41の画素数、画素ピッチ、撮
像範囲等のデータ、及びブレ検出光学系13の焦点距離
等のデータが記憶されている。これらのデータは、コン
トロールCPU63から情報書込部33を通してフィル
ム上に記録され、後述の再生装置によるブレ補正演算に
用いられる。
Next, the contents of the blur detection unit 32 will be described with reference to FIG. The blur detection sensor 14 includes an image pickup unit 41 (hereinafter, referred to as CCD 41) including a CCD, an output amplifier 42 and a C for amplifying an image signal output from the CCD 41.
The clock generator 45 includes an illuminance monitor circuit 43 that monitors the illuminance of the subject image formed on the CD 41, and controls the imaging operation of the CCD 41, that is, the charge accumulation time (integration time). ing. The CCD 41 includes a spectral filter 64 that splits the incident light into three primary colors of RGB, and converts each color component of RGB into an electric signal and outputs the electric signal. The blur detection sensor 14 also includes a sensor data memory 65. The memory 65 stores data such as the number of pixels of the CCD 41, a pixel pitch, an imaging range, and the like, and data such as the focal length of the blur detection optical system 13. These data are recorded on the film from the control CPU 63 through the information writing unit 33, and are used for the blur correction calculation by the reproducing device described later.

【0023】ブレ検出光学系13は焦点距離fdの単焦
点レンズであり、CCD41上に被写体像を結像するた
めの光学系である。なお、このブレ検出光学系13は、
フィルムに記録される被写体像と同じ範囲をCCD41
上に結像するよう構成してもよいし、フィルムに記録さ
れる被写体像の1部分のみ(例えば中央部のみ等)を拡
大して結像するよう構成しても良い。このようにする
と、同一範囲を撮像する画素数が相対的に増加するた
め、被写体像に対するCCD41の分解能が高くなり、
より細かくブレ検出を行うことができる。
The blur detection optical system 13 is a single focus lens having a focal length fd, and is an optical system for forming a subject image on the CCD 41. The blur detection optical system 13 is
The CCD 41 covers the same area as the subject image recorded on the film.
The image may be formed on the upper side, or only one portion (for example, only the central portion) of the subject image recorded on the film may be enlarged and formed. By doing so, the number of pixels for imaging the same range is relatively increased, so that the resolution of the CCD 41 with respect to the subject image is increased,
The shake detection can be performed more finely.

【0024】クロックジェネレーター45は、CCD4
1、D/Aコンバータ48、感度バラツキ補正メモリ4
9、暗出力補正メモリ50及びA/Dコンバータ51の
駆動用クロックを発生するものである。また、クロック
ジェネレーター45は、上記照度モニタ回路43から入
力される被写体像の照度に関する信号に基づきCCD4
1の電荷蓄積時間の制御信号を生成する。
The clock generator 45 is the CCD 4
1, D / A converter 48, sensitivity variation correction memory 4
9. A clock for driving the dark output correction memory 50 and the A / D converter 51 is generated. Further, the clock generator 45 uses the CCD 4 based on the signal relating to the illuminance of the subject image input from the illuminance monitor circuit 43.
A charge accumulation time control signal of 1 is generated.

【0025】差動アンプ46は、ブレ検出センサ14か
ら出力される、CCD41を構成する各画素で受光され
た信号(以下、画素信号という)の暗出力レベルの補正
を行なうものである。ゲインコントロールアンプ47
は、上記画素の感度バラツキに起因する上記画素信号の
誤差を補正するものである。感度バラツキに起因する画
素信号の誤差を補正するデータ(以下、感度バラツキ補
正データという)は、感度バラツキ補正メモリ49に記
憶され、上記暗出力レベルを補正するデータ(以下、暗
出力補正データという)は、暗出力補正メモリ50に記
憶されている。D/Aコンバータ48は、上記暗出力補
正メモリ50から読み出された暗出力補正データをデジ
タル信号からアナログ信号に変換して上記作動アンプ4
6に入力するものである。
The differential amplifier 46 corrects a dark output level of a signal (hereinafter, referred to as a pixel signal) received by each pixel forming the CCD 41, which is output from the blur detection sensor 14. Gain control amplifier 47
Is for correcting the error of the pixel signal due to the sensitivity variation of the pixel. Data for correcting an error in pixel signals due to sensitivity variations (hereinafter referred to as sensitivity variation correction data) is stored in the sensitivity variation correction memory 49, and data for correcting the dark output level (hereinafter referred to as dark output correction data). Are stored in the dark output correction memory 50. The D / A converter 48 converts the dark output correction data read from the dark output correction memory 50 from a digital signal to an analog signal and operates the operational amplifier 4 described above.
6 is input.

【0026】CCD41で被写体像の撮像が終了する
と、被写体の画像を構成する各画素信号が順次、差動ア
ンプ46に読み出されると共に、これに同期して対応す
る暗出力補正データが上記暗出力補正メモリ50から読
み出され、D/Aコンバータ48によりD/A変換され
て差動アンプ46に入力される。そして、差動アンプ4
6により画素信号レベルから暗出力の補正レベルを減算
して暗出力レベルの補正が行なわれる。
When the image pickup of the subject image by the CCD 41 is completed, each pixel signal forming the subject image is sequentially read out to the differential amplifier 46, and the corresponding dark output correction data is synchronized with this and the dark output correction data is corrected. The data is read from the memory 50, D / A converted by the D / A converter 48, and input to the differential amplifier 46. And the differential amplifier 4
In step 6, the dark output level is corrected by subtracting the dark output correction level from the pixel signal level.

【0027】暗出力レベルの補正後、各画素信号は、ゲ
インコントロールアンプ47に入力される。各画素信号
の入力に同期して感度バラツキ補正メモリ49から感度
バラツキ補正データが読み出され、この補正データによ
りゲインコントロールアンプ47のゲインが設定され
る。そして、各画素信号は、ゲインコントロールアンプ
47により所定のゲインでレベル調整されることにより
感度バラツキに起因する誤差が補正される。
After the dark output level is corrected, each pixel signal is input to the gain control amplifier 47. The sensitivity variation correction data is read from the sensitivity variation correction memory 49 in synchronization with the input of each pixel signal, and the gain of the gain control amplifier 47 is set by this correction data. Then, each pixel signal is level-adjusted by the gain control amplifier 47 with a predetermined gain, so that an error due to sensitivity variation is corrected.

【0028】上記ゲインコントロールアンプ47から出
力される画素信号は、A/Dコンバータ51によりアナ
ログ信号からデジタル信号に変換されて基準部メモリ5
2又は参照部メモリ53に記憶される。基準部メモリ5
2は、撮影中における被写体像の移動量を検出するため
の基準となる画像(撮影開始時に撮像された画像、以下
基準画像という)を構成する画素データを記憶するメモ
リである。参照部メモリ53は、上記基準画像と比較さ
れる画像が記憶されるメモリで、撮影開始後所定時間ご
とに撮像される各被写体像の画像(以下、参照画像とい
う)を構成する画素データが更新的に記憶される。
The pixel signal output from the gain control amplifier 47 is converted from an analog signal to a digital signal by the A / D converter 51, and the reference section memory 5 is provided.
2 or the reference unit memory 53. Reference part memory 5
Reference numeral 2 denotes a memory that stores pixel data that forms an image (an image captured at the start of image capturing, hereinafter referred to as a reference image) that serves as a reference for detecting the amount of movement of a subject image during image capturing. The reference unit memory 53 is a memory in which an image to be compared with the reference image is stored, and pixel data forming an image (hereinafter referred to as a reference image) of each subject image captured at predetermined time intervals after the start of image capturing is updated. Be remembered.

【0029】上記基準メモリ52及び参照部メモリ53
は、それぞれRGBの各色の画像を記憶する記憶領域
(計3画面分の記憶領域)を有している。アドレス生成
器54は、上記基準画像及び参照画像の画素データをそ
れぞれ基準部メモリ52と参照部メモリ53とに記憶す
る際のアドレスデータを生成するものである。
The standard memory 52 and the reference section memory 53.
Has a storage area (a storage area for a total of three screens) for storing images of respective colors of RGB. The address generator 54 generates address data when the pixel data of the standard image and the reference image are stored in the standard memory 52 and the reference memory 53, respectively.

【0030】演算器55は、ブレ情報演算における縦コ
ントラストデータ、横コントラストデータ、及び相関デ
ータを演算するもので、減算回路56、絶対値回路5
7、加算回路58及びレジスタ59からなる。相関デー
タメモリ60、縦コントラストメモリ61、及び横コン
トラストメモリ62は、それぞれ上記相関データ、及び
縦コントラストデータ、横コントラストデータ、を記憶
するものである。なお、縦/横コントラストデータ、及
び相関データの詳細は、後述する。
The calculator 55 calculates the vertical contrast data, the horizontal contrast data, and the correlation data in the blur information calculation, and the subtractor circuit 56 and the absolute value circuit 5
7, an adder circuit 58 and a register 59. The correlation data memory 60, the vertical contrast memory 61, and the horizontal contrast memory 62 store the correlation data, the vertical contrast data, and the horizontal contrast data, respectively. The details of the vertical / horizontal contrast data and the correlation data will be described later.

【0031】コントロールCPU63は、上記ブレ検出
部32の各構成部材の動作を集中制御するものである。
コントロールCPU63は、上記クロックジェネレータ
ー45の駆動を制御してブレ情報検出用の被写体像を撮
像させ、上記アドレス生成器54の駆動を制御して撮像
された基準画像及び参照画像の画像データをそれぞれ基
準部メモリ52と参照部メモリ53とに記憶させる。さ
らに、コントロールCPU63は、上記相関データメモ
リ60、縦コントラストメモリ61及び、横コントラス
トメモリ62に記憶された各種データを用いてブレ情報
を演算する。
The control CPU 63 centrally controls the operation of each constituent member of the blur detection unit 32.
The control CPU 63 controls the drive of the clock generator 45 to capture a subject image for detecting blur information, and controls the drive of the address generator 54 to reference the image data of the captured standard image and reference image. The partial memory 52 and the reference memory 53 are stored. Further, the control CPU 63 calculates blur information using various data stored in the correlation data memory 60, the vertical contrast memory 61, and the horizontal contrast memory 62.

【0032】次にブレ検出の方法を示す。なお、本発明
においては、被写体像をRGB成分に分解し、それぞれ
の色成分についてブレを検出するが、以後のブレ検出の
方法の説明においては、R成分についてのみ説明する。
残りのG,B成分については、R成分と全く同じ方法で
ブレを検出するので、説明を省略する。
Next, a method for detecting blurring will be described. In the present invention, the subject image is decomposed into RGB components and the blur is detected for each color component, but in the following description of the blur detection method, only the R component will be described.
With respect to the remaining G and B components, blurring is detected by the same method as that for the R component, and thus description thereof is omitted.

【0033】分光フィルタ64によって抽出された被写
体像のR成分は、CCD41によって2次元の画像デー
タに変換される。そしてその画像データを用いて、時間
経過に伴う被写体像の移動量(ブレ量)を演算すること
により、R成分の被写体像のブレを検出する。
The R component of the subject image extracted by the spectral filter 64 is converted into two-dimensional image data by the CCD 41. Then, by using the image data, the amount of movement (blurring amount) of the subject image over time is calculated to detect the blur of the R component subject image.

【0034】ブレ検出のシーケンスは、 (1)ブロックの選択 (2)相関演算 (3)補間演算 の3つの部分に大きく分けることができる。まずブロッ
ク選択とは、CCD41の撮像領域を複数の小領域のブ
ロックに分割し、このブロックの中からブレ検出に適し
た複数のブロックを選択する処理である。CCD41の
撮像面に結像された被写体像には、ブレ検出に適した部
分もあれば、そうでない部分もある。ブロック選択の処
理では、CCD41がR成分に対してI×J個の画素を
有するエリアセンサであるとすると、この撮像領域がM
×N個の小領域のブロックに分割され、これらブロック
のうち、コントラストの高い画像を含む複数のブロック
がブレ検出に適した領域(以下、ブレ検出領域という)
として選択される。
The blur detection sequence can be roughly divided into three parts: (1) block selection, (2) correlation calculation, and (3) interpolation calculation. First, the block selection is a process of dividing the image pickup area of the CCD 41 into a plurality of small area blocks and selecting a plurality of blocks suitable for blur detection from the blocks. The subject image formed on the image pickup surface of the CCD 41 has a portion suitable for blur detection and a portion not suitable for blur detection. In the block selection process, if the CCD 41 is an area sensor having I × J pixels for the R component, this imaging area is M
An area that is divided into × N small area blocks, and among these blocks, a plurality of blocks including an image with high contrast are suitable for shake detection (hereinafter referred to as shake detection area)
Is selected as.

【0035】なお、上記CCD41のR成分に対するI
×Jの画素配列に対し、基準部メモリ52及び参照部メ
モリ53は、R成分に対してI×Jワードの容量を有
し、縦コントラストメモリ61及び横コントラストメモ
リ62は、それぞれR成分に対してM×Nワードの容量
を有する。また、上記各メモリ52,53,61,62
は、その他の色成分G,Bについても同じ容量を有して
いる。
I for the R component of the CCD 41
For a pixel array of × J, the standard portion memory 52 and the reference portion memory 53 have a capacity of I × J words for the R component, and the vertical contrast memory 61 and the horizontal contrast memory 62 respectively for the R component. It has a capacity of M × N words. Further, each of the memories 52, 53, 61, 62
Has the same capacity for the other color components G and B.

【0036】次に、相関演算は、基準画像とその基準画
像と同一の位置及び同一位置から所定画素数だけ離れた
複数の位置の参照画像とを比較し、各位置における両画
像の差異の程度を示す相関値を演算するものである。基
準画像と参照画像との差異が小さいほど、相関値は小さ
くなり、相関値が最小となる位置は、そのブレ検出時に
おける被写体像の結像位置と推定される。従って、基準
画像と同一の位置から相関値が最小となる位置までの距
離(画素ピッチ×画素数)がそのブレ検出時における被
写体像の移動量と推定される。
Next, in the correlation calculation, the standard image and the reference image at the same position as the standard image and at a plurality of positions separated from the same position by a predetermined number of pixels are compared to determine the degree of difference between the two images at each position. Is calculated. The smaller the difference between the standard image and the reference image, the smaller the correlation value, and the position at which the correlation value becomes the minimum is estimated to be the imaging position of the subject image at the time of detecting the blur. Therefore, the distance (pixel pitch × number of pixels) from the same position as the reference image to the position where the correlation value is the minimum is estimated as the amount of movement of the subject image at the time of blur detection.

【0037】上記相関演算は、選択された各ブレ検出領
域の画像について行なわれる。各ブロックにK×L個の
画素が含まれているとすると、同一位置における基準画
像と参照画像との比較は、(K×L)個の画素信号につ
いて、基準画像を構成する画素信号とその画素信号と同
一位置の参照画像を構成する画素信号とをそれぞれ比較
して行なわれる。
The above correlation calculation is performed on the image of each selected blur detection area. Assuming that each block includes K × L pixels, the standard image and the reference image at the same position are compared by comparing (K × L) pixel signals with the pixel signals that form the standard image and the pixel signals that form the standard image. This is performed by comparing the pixel signal with the pixel signal forming the reference image at the same position.

【0038】また、基準画像とその基準画像から所定画
素数±h(h=1,2,…)だけ離れた位置における参
照画像との比較は、参照画像が行方向に離れた場合と列
方向に離れた場合について行なわれる。
Further, the comparison between the reference image and the reference image at a position separated by a predetermined number of pixels ± h (h = 1, 2, ...) From the reference image is performed when the reference image is separated in the row direction and in the column direction. This is done when you leave.

【0039】例えば参照画像が基準画像と同一位置から
+m画素だけ行方向に離れている場合は、(K−m)×
L個の画素信号について、基準画像を構成する画素信号
とその画素信号と同一位置から+m画素だけ行方向に離
れた位置の参照画像を構成する画素信号とをそれぞれ比
較して行なわれる。同様に参照画像が基準画像と同一位
置から+n画素だけ列方向に離れている場合は、K×
(L−n)個の画素信号について、基準画像を構成する
画素信号とその画素信号と同一位置から+n画素だけ列
方向に離れた位置の参照画像を構成する画素信号とをそ
れぞれ比較して行なわれる。
For example, when the reference image is separated from the same position as the standard image by + m pixels in the row direction, (K−m) ×
The L pixel signals are compared by comparing the pixel signals forming the standard image with the pixel signals forming the reference image at positions + m pixels away from the same position as the pixel signal in the row direction. Similarly, if the reference image is separated from the same position as the standard image by + n pixels in the column direction, K ×
For (L−n) pixel signals, the pixel signals forming the standard image are compared with the pixel signals forming the reference image at positions + n pixels away from the same position as the pixel signal in the column direction. Be done.

【0040】上記のように相関演算では、画素数h=
0,±1,±2…,だけ離れた位置における相関値が算
出される。算出される相関値の数をHとすると、相関デ
ータメモリ60は、RGBの各色成分に対してそれぞれ
H×Hワードの容量を有している。
In the correlation calculation as described above, the number of pixels h =
Correlation values at positions separated by 0, ± 1, ± 2, ... Are calculated. When the number of calculated correlation values is H, the correlation data memory 60 has a capacity of H × H words for each of the RGB color components.

【0041】さらに、補間演算は、相関演算で算出され
た被写体像の移動量の補間を行なうものである。上記の
ように相関演算では、基準画像と同一の位置から所定画
素数hだけ離れた位置の参照画像と基準画像との相関値
が最小であれば、この位置を被写体像の移動位置と推定
しているので、真の相関値の最小位置が上記推定位置の
1画素ピッチの範囲内ある場合は、この分誤差が生じる
ことになる。補間演算は、相関演算で算出された複数の
相関値を用いて真の相関値の最小位置を推定し、上記誤
差を低減するものである。
Further, the interpolation calculation is to interpolate the movement amount of the subject image calculated by the correlation calculation. As described above, in the correlation calculation, if the correlation value between the reference image and the reference image at the position separated by the predetermined number of pixels h from the same position as the reference image is the minimum, this position is estimated as the moving position of the subject image. Therefore, if the minimum position of the true correlation value is within the range of one pixel pitch of the estimated position, an error will be generated by this amount. The interpolation calculation is to estimate the minimum position of the true correlation value by using the plurality of correlation values calculated by the correlation calculation, and reduce the error.

【0042】以下、R成分に対するブレ検出手順を上記
(1)〜(3)の部分に分けて順に説明する。
The blur detection procedure for the R component will be described below in order by dividing it into the above sections (1) to (3).

【0043】なお本実施例では、I=68、J=58、
K=L=8、M=8、N=6及びH=5の場合について
説明する。また、A/Dコンバータ51の分解能は8ビ
ット、レジスタ59は14ビットであり、相関データメ
モリ60、縦コントラストメモリ61及び横コントラス
トメモリ62の1ワードは、それぞれ14ビットで構成
されているものとする。
In this embodiment, I = 68, J = 58,
The case of K = L = 8, M = 8, N = 6 and H = 5 will be described. Further, the resolution of the A / D converter 51 is 8 bits, the register 59 is 14 bits, and each word of the correlation data memory 60, the vertical contrast memory 61, and the horizontal contrast memory 62 is composed of 14 bits. To do.

【0044】図5は、CCD41のR成分に対する撮像
面の模式図である。図中、最小の正方形の1つ1つは画
素を示しており、太線で囲まれた正方形はブロックを示
している。図中、左下端の画素をP1,1、右上端の画素
をP68,52とし、また、左下端のブロックをB1,1、右上
端のブロックをB8,6とする。各ブロックBk,l(k=1
〜8,l=1〜6)は、8×8個の画素Pi,j(i=8k-5
〜8k+2,j=8l-5〜8l+2)で構成される。
FIG. 5 is a schematic view of the image pickup surface for the R component of the CCD 41. In the figure, each of the smallest squares represents a pixel, and the square surrounded by a thick line represents a block. In the figure, the lower left pixel is P 1,1 and the upper right pixel is P 68,52 , the lower left block is B 1,1 and the upper right block is B 8,6 . Each block B k, l (k = 1
˜8, l = 1 to 6) is 8 × 8 pixels P i, j (i = 8k−5)
.About.8k + 2, j = 8l-5 to 8l + 2).

【0045】なお、ブロックの外側に2画素分の周縁部
を設けているのは、各ブロックの周縁部に接する部分の
画素について相関演算を可能にするためである。本実施
例では、相関演算において、最大±2画素分だけシフト
した参照画像を基準画像と比較するようにしているの
で、ブロックの周囲に2画素分の周縁部を設けている。
一般に、参照画像の最大のシフト量を±hとすると、ブ
ロックの周囲には少なくともh画素分の周縁部を設ける
ようにする。
The reason why the peripheral portion for two pixels is provided outside the block is to enable the correlation calculation for the pixels in the portion in contact with the peripheral portion of each block. In the present embodiment, since the reference image shifted by ± 2 pixels at the maximum is compared with the standard image in the correlation calculation, the peripheral portion of 2 pixels is provided around the block.
Generally, assuming that the maximum shift amount of the reference image is ± h, a peripheral portion of at least h pixels is provided around the block.

【0046】(1)ブロックの選択 このブロック選択の動作では、各ブロックごとに被写体
像のコントラストが計算され、縦方向のコントラストの
大きいブロック4個、及び横方向のコントラストの大き
いブロック4個、計8個のブロックがブレ検出領域とし
て選択される。
(1) Block selection In this block selection operation, the contrast of the subject image is calculated for each block, and four blocks with a large vertical contrast and four blocks with a large horizontal contrast are calculated. Eight blocks are selected as the blur detection area.

【0047】まず、CCD41の出力(画像データ)
が、基準部メモリ52及び参照部メモリ53の両方に記
憶される。このデータを用いて各ブロックの縦方向のコ
ントラスト及び横方向のコントラストが計算される。
First, the output of the CCD 41 (image data)
Are stored in both the standard memory 52 and the reference memory 53. The vertical contrast and the horizontal contrast of each block are calculated using this data.

【0048】各ブロックBk,l(k=1〜8、l=1
〜6)の縦方向のコントラスト演算の手順は以下のとお
りである。
Each block B k, l (k = 1 to 8, l = 1
The procedure of calculating the contrast in the vertical direction in (6) is as follows.

【0049】 レジスタ59をクリアする。 減算回路56の一方の入力に基準部メモリ52に記
憶された画素データP8k-5,8l-5を、もう一方の入力に
参照部メモリ53に記憶された画素データP8k- 5,8l-4
を、それぞれ与えるようなアドレスデータをアドレス生
成器54が生成する。 減算回路56は入力された2つの画素データを減算
し、その出力が絶対値回路57によって絶対値化され
る。 絶対値化されたデータは、加算回路58によってレ
ジスタ59の内容に加算される。
The register 59 is cleared. The pixel data P 8k-5,8l-5 stored in the reference unit memory 52 to the input of one of the subtractor circuit 56, the other pixel data stored in the reference unit memory 53 to the input P 8k- 5,8l- Four
Is generated by the address generator 54. The subtraction circuit 56 subtracts the two input pixel data, and the output thereof is converted into an absolute value by the absolute value circuit 57. The absolute valued data is added to the contents of the register 59 by the adder circuit 58.

【0050】以下、アドレス生成器54が適切なアドレ
スデータを生成することにより、順次画素をシフトさせ
ながら上記〜の動作を繰り返す。この動作を繰り返
すことにより、レジスタ59にはブロックBk,lの縦方
向のコントラストVCk,lが記憶される。なお、ブロッ
クBk,lの縦方向のコントラストVCk,lは以下の式で示
される。
After that, the address generator 54 generates appropriate address data, so that the above-mentioned operations are repeated while sequentially shifting pixels. By repeating this operation, the register 59 block B k, contrast VC k longitudinal l, l is stored. The vertical contrast VC k, l of the block B k, l is expressed by the following equation.

【0051】[0051]

【数1】 [Equation 1]

【0052】レジスタ59に記憶された上記VC
k,lは、縦コントラストメモリ61の所定のアドレスに
転送されて、ブロックBk,lの縦コントラストとして記
憶される。上記〜の動作を繰り返すことにより全ブ
ロックの縦方向のコントラストが次々と演算され、縦コ
ントラストメモリ61に記憶される。
The VC stored in the register 59
k, l is transferred to a predetermined address of the vertical contrast memory 61 and stored as the vertical contrast of the block B k, l . By repeating the above-mentioned operations (1) to (5), the vertical contrasts of all blocks are calculated one after another and stored in the vertical contrast memory 61.

【0053】次に、各ブロックの横方向のコントラスト
を演算する。横方向のコントラストは、アドレス生成器
54が適正なアドレスデータを順次生成することによ
り、上記縦方向と全く同様の演算によって求められる。
レジスタ59には、ブロックBk,lの横方向コントラス
ト、
Next, the horizontal contrast of each block is calculated. The contrast in the horizontal direction is obtained by the same operation as that in the vertical direction by the address generator 54 sequentially generating appropriate address data.
The register 59 stores the horizontal contrast of the block B k, l ,

【0054】[0054]

【数2】 [Equation 2]

【0055】が記憶される。その後HCk,lは、横コン
トラストメモリ62の所定のアドレスに転送されて、ブ
ロックBk,lの横コントラストとして記憶される。
Is stored. After that, HC k, l is transferred to a predetermined address of the lateral contrast memory 62 and stored as the lateral contrast of the block B k, l .

【0056】コントロールCPU63は、以上の手順で
得られた各ブロックの縦方向及び横方向のコントラスト
を参照してブロックの選択を行う。8×6個のブロック
のうち、縦方向・横方向のそれぞれについてコントラス
トの高い順に4個ずつのブロックを選択する。選ばれた
計8個のブロックをB1〜B8とする。
The control CPU 63 selects a block by referring to the vertical and horizontal contrasts of each block obtained by the above procedure. From the 8 × 6 blocks, four blocks are selected in descending order of contrast in each of the vertical and horizontal directions. The selected eight blocks are designated as B1 to B8.

【0057】ブロック選択終了後、コントロールCPU
63は、基準部メモリ52に記憶された基準画像の画素
データを読み出し、情報書込部33に出力する。情報書
込部33は、フィルム巻き上げ時に、この入力された基
準画像の画素データを初期画像データとしてフィルムに
記録する。この初期画像データは再生装置側において、
ブレ補正演算を行う際にデータとして入力されるもので
あり、この初期画像データの入力によって、再生装置は
より正確なブレ補正を行うことが可能となる。なお、こ
の初期画像データは、基準部メモリ52に記憶された基
準画像の画素データのすべてをフィルム上に記録しても
良いし、また基準画像の所定の一部分の画素データのみ
を抽出して記録しても良い。この初期画像データの記録
に関しては後に詳述する。
After completion of block selection, control CPU
The reference numeral 63 reads the pixel data of the reference image stored in the reference memory 52 and outputs it to the information writing section 33. The information writing unit 33 records the pixel data of the input reference image on the film as initial image data when the film is wound. This initial image data is
This is input as data when performing blur correction calculation, and by inputting this initial image data, the reproducing apparatus can perform more accurate blur correction. As the initial image data, all the pixel data of the reference image stored in the reference unit memory 52 may be recorded on the film, or only the pixel data of a predetermined part of the reference image may be extracted and recorded. You may. The recording of the initial image data will be described later in detail.

【0058】(2)相関演算 基準部メモリ52には、コントラストの演算に用いられ
た基準画像を構成する画素データがそのまま残される。
参照部メモリ53には、CCD41から次々と出力され
る新しいデータが参照画像を構成する画素データとして
記憶される。参照部メモリ53に新しくデータが記憶さ
れる度に基準画像を構成する画素データと参照画像を構
成する画素データとが比較され、両画像間の空間的ズレ
(移動量)が被写体像のブレとして検出される。画像間
の移動量は以下に説明する相関演算・補間演算によって
算出される。
(2) Correlation calculation In the reference section memory 52, the pixel data forming the reference image used for the contrast calculation is left as it is.
In the reference unit memory 53, new data output one after another from the CCD 41 is stored as pixel data forming a reference image. Every time new data is stored in the reference unit memory 53, the pixel data forming the standard image and the pixel data forming the reference image are compared, and the spatial shift (movement amount) between the two images is a blur of the subject image. To be detected. The amount of movement between images is calculated by the correlation calculation / interpolation calculation described below.

【0059】ブロックBk,lの相関演算結果(相関値)
を以下の式で定義する。
Correlation calculation result of block B k, l (correlation value)
Is defined by the following formula.

【0060】[0060]

【数3】 [Equation 3]

【0061】ここでSi,jは基準部メモリ52に記憶さ
れた(i,j)位置の画素Pi,jに対応する画素デー
タ、Ri,jは参照部メモリ53に記憶された(i,j)
位置の画素Pi,jに対応する画素データである。そして
上記(1)のブロック選択の動作で選択した8個のブロ
ックB1〜B8に対応する相関値をそれぞれC1(m,
n)〜C8(m,n)とし、その総計を
Here, S i, j is pixel data corresponding to the pixel P i, j at the (i, j) position stored in the reference part memory 52, and R i, j is stored in the reference part memory 53 ( i, j)
It is pixel data corresponding to the pixel P i, j at the position. Then, the correlation values corresponding to the eight blocks B1 to B8 selected in the block selection operation of (1) above are respectively set to C1 (m,
n) to C8 (m, n), and the total is

【0062】[0062]

【数4】 [Equation 4]

【0063】で定義する。It is defined by

【0064】上記相関演算を行うために、減算回路56
の一方の入力には基準部メモリ52に記憶された画素P
i,jの画素データSi,j、もう一方の入力には参照部メモ
リ53に記憶された画素Pi+m,j+nの画素データR
i+m,j+nが入力される。アドレス生成器54が、適切な
アドレスデータを順次生成することにより、レジスタ5
9にはC(m,n)が記憶され、相関結果メモリ60の
所定のアドレスに転送・記憶される。上記の処理がすべ
てのm,nについて行われ、計5×5個の相関値C
(m,n):(m,n=0,±1,±2)が相関結果メ
モリ60に記憶される。
In order to perform the above correlation calculation, the subtraction circuit 56
Pixel P stored in the reference unit memory 52
i, j of the pixel data S i, j, the other pixel P i + m, which is stored in the reference unit memory 53 to the input, j + n pixel data R
i + m, j + n are input. The address generator 54 sequentially generates appropriate address data so that the register 5
C (m, n) is stored in 9 and transferred / stored in a predetermined address of the correlation result memory 60. The above process is performed for all m and n, and a total of 5 × 5 correlation values C
(M, n): (m, n = 0, ± 1, ± 2) is stored in the correlation result memory 60.

【0065】(3)補間演算 図6は、上記相関演算によって求められたC(m,n)
の分布を示す図である。相関値C(m,n)は、基準画
像と参照画像の間に全くズレが無い場合は、C(0,
0)=0となり、この点から遠ざかるほど大きい値を持
つようになる。また、参照画像が基準画像に対して右に
0画素、上にn0画素ズレていたとすると、C(m0
0)=0となり、この点から遠ざかるほど大きい値を
持つ。
(3) Interpolation Calculation FIG. 6 shows C (m, n) obtained by the above correlation calculation.
It is a figure which shows the distribution of. Correlation value C (m, n) is C (0,
0) = 0, and the larger the distance from this point, the larger the value. If the reference image is displaced from the standard image by m 0 pixels to the right and n 0 pixels above, C (m 0 ,
n 0 ) = 0, and has a larger value as the distance from this point increases.

【0066】しかしながら、像のズレは画素の整数倍と
は限らない。図6はこのような場合の相関値C(m,
n)の分布の様子を表したものである。図6を参照し
て、実際に値が得られているのは図中の格子点上だけで
あるが、格子間にも値が存在するものと想定し、相関値
が等しい大きさ(高さ)と考えられる点を等高線で結ん
でいる。等高線の中心MPの座標は(x0,y0)であ
り、C(x0,y0)=0と想定される。
However, the image shift is not always an integral multiple of the pixel. FIG. 6 shows the correlation value C (m,
It shows the state of the distribution of n). Referring to FIG. 6, the values are actually obtained only on the grid points in the figure, but it is assumed that the values also exist between the grids, and the correlation values have the same magnitude (height). ) Are connected by contour lines. The coordinates of the center MP of the contour line are (x 0 , y 0 ), and it is assumed that C (x 0 , y 0 ) = 0.

【0067】コントロールCPU63は、相関結果メモ
リ60に記憶された相関値C(m,n):(m,n=
0,±1,±2)を用いて補間演算を行い、C(x0
0)=0となる点MP、すなわち参照画像の基準画像
に対する移動量(x0,y0)を算出する。この算出手順
について以下に具体的に説明する。
The control CPU 63 stores the correlation value C (m, n) stored in the correlation result memory 60: (m, n =
0, ± 1, ± 2) is used for interpolation calculation, and C (x 0 ,
The point MP at which y 0 ) = 0, that is, the movement amount (x 0 , y 0 ) of the reference image with respect to the standard image is calculated. The calculation procedure will be specifically described below.

【0068】まず、C(m,n)の最小値C(m0
0)を見つける。点(m0,n0)は図6中の格子点の
中で、点(x0,y0)に最も近接する点と考えられる。
First, the minimum value of C (m, n) C (m 0 ,
find n 0 ). The point (m 0 , n 0 ) is considered to be the closest point to the point (x 0 , y 0 ) among the lattice points in FIG.

【0069】次に、まず横方向について、x0を求める
ために、2つの相関値C(m0−1,n0)とC(m0
1,n0)の大小関係により、横方向の相関値の分布状
態を下の(a)〜(d)に分類する。なお、図7の
(a)〜(d)は、それぞれ下の(a)〜(d)の場合
に対応した図である。
Next, in order to obtain x 0 in the horizontal direction, two correlation values C (m 0 -1, n 0 ) and C (m 0 +) are obtained.
The distribution state of the correlation values in the horizontal direction is classified into the following (a) to (d) according to the magnitude relationship of (1, n 0 ). 7A to 7D are diagrams corresponding to the cases (a) to (d) below, respectively.

【0070】(a) m0=0 or ±1 かつ C(m0
1,n0)≧C(m0+1,n0)の場合 x0はm0≦x0<m0+1の範囲内にあると判断する。そ
して、点(m0−1,C(m0−1,n0))と、点
(m0,C(m0,n0))を結ぶ直線uと、点(m0
1,C(m0+1,n0))を通り、傾きが直線uと逆符
号の直線vとの交点のm座標をx0とする。なお、この
ようにして求めたx0は以下の式で演算される。
(A) m 0 = 0 or ± 1 and C (m 0
In the case of 1, n 0 ) ≧ C (m 0 + 1, n 0 ), it is determined that x 0 is within the range of m 0 ≦ x 0 <m 0 +1. Then, the point (m 0 -1, C (m 0 -1, n 0 )), the straight line u connecting the point (m 0 , C (m 0 , n 0 )), and the point (m 0 +
1, C (m 0 + 1, n 0 )), and the m coordinate of the intersection point of the straight line u with a slope and the straight line v with the opposite sign is x 0 . Note that x 0 thus obtained is calculated by the following equation.

【0071】[0071]

【数5】 [Equation 5]

【0072】(b) m0=0 or ±1 かつ C(m0
1,n0)<C(m0+1,n0)の場合 x0はm0−1≦x0<m0の範囲内にあると判断する。そ
して、点(m0+1,C(m0+1,n0))と、点
(m0,C(m0,n0))を結ぶ直線u’と、点(m0
1,C(m0−1,n0))を通り、傾きが直線u’と逆
符号の直線v’との交点のm座標をx0とする。なお、
このようにして求めたx0は以下の式で演算される。
(B) m 0 = 0 or ± 1 and C (m 0
In the case of 1, n 0 ) <C (m 0 +1, n 0 ), it is determined that x 0 is within the range of m 0 −1 ≦ x 0 <m 0 . Then, the point (m 0 + 1, C (m 0 + 1, n 0 )), the straight line u ′ connecting the point (m 0 , C (m 0 , n 0 )), and the point (m 0
1, C (m 0 -1, n 0 )), and the m coordinate of the intersection of the straight line u ′ with a slope and the straight line v ′ with the opposite sign is x 0 . In addition,
The x 0 thus obtained is calculated by the following equation.

【0073】[0073]

【数6】 [Equation 6]

【0074】(c)m0=−2の場合 及び (d)m0
=2の場合 想定している最大のブレ量を超えるブレが発生したと判
定し、ブレ量の検出は不可能とする。
(C) When m 0 = -2, and (d) m 0
In case of = 2, it is determined that the blur exceeding the maximum expected blur amount has occurred, and the blur amount cannot be detected.

【0075】以上の手順によって、横方向のブレ量x0
が算出される。同様に2つの相関値C(m0,n0−1)
とC(m0,n0+1)の大小関係によって、縦方向の相
関値の分布状態を分類し、縦方向のブレ量y0が算出さ
れる。
By the above procedure, the horizontal blur amount x 0
Is calculated. Similarly, two correlation values C (m 0 , n 0 -1)
And the distribution of the correlation values in the vertical direction are classified according to the magnitude relation between C (m 0 , n 0 +1) and the vertical blur amount y 0 is calculated.

【0076】上記(1)〜(3)の演算により、R成分
に対する横方向のブレ量x0と縦方向のブレ量y0が求め
られる。なお、G,B成分についても上記演算によって
全く同様に縦/横方向のブレ量が得られる。
By the operations (1) to (3), the horizontal blur amount x 0 and the vertical blur amount y 0 for the R component are obtained. With respect to the G and B components, the blur amounts in the vertical / horizontal directions can be obtained in the same manner as above.

【0077】次に、ブレの検出タイミングとその記録に
ついて説明する。図8は、R成分における被写体像の移
動(ブレ)とカメラのブレ検出のタイミングとの関係を
示している。横軸tは時間を示しており、縦軸Xは横方
向における被写体像の位置を示している。なお、ここで
は簡単のため、横方向のブレのみについて説明を行う。
縦方向については、横方向と全く同様となるので説明を
省略する。
Next, the blur detection timing and its recording will be described. FIG. 8 shows the relationship between the movement (blur) of the subject image in the R component and the camera shake detection timing. The horizontal axis t represents time, and the vertical axis X represents the position of the subject image in the horizontal direction. It should be noted that here, for simplicity, only the lateral blur will be described.
The vertical direction is exactly the same as the horizontal direction, so description thereof will be omitted.

【0078】図中、t0,t1,t2,t3,…はCCD4
1の積分開始時刻を、t0’,t1’,t2’,t3’,…
は積分終了時刻を示す。曲線70はCCD41上におけ
る横方向の被写体像の位置を示しており、点Pxsは露
光開始時刻t=tsにおける位置である。
In the figure, t 0 , t 1 , t 2 , t 3 , ... Are CCDs 4.
The integration start time of 1 is t 0 ′, t 1 ′, t 2 ′, t 3 ′, ...
Indicates the integration end time. Curve 70 shows the position of the lateral object image on the CCD 41, the point Px s is the position at the exposure start time t = t s.

【0079】点Px0,Px1,Px2,Px3,…は積分
期間t0〜t0’,t1〜t1’,t2〜t2’,t3
3’,…における被写体像のCCD41上での平均的
な位置を示している。なお、ここでは、近似的に積分期
間の中心時刻tm0=(t0+t0’)/2,tm1=(t1
+t1’)/2,tm2=(t2+t2’)/2,tm3
(t3+t3’)/2,…における被写体像の位置とす
る。
The points Px 0 , Px 1 , Px 2 , Px 3 , ... Are integrated periods t 0 to t 0 ′, t 1 to t 1 ′, t 2 to t 2 ′, t 3 ˜.
The average position of the subject image on the CCD 41 at t 3 ', ... In this case, the central time of the integration period is approximately t m0 = (t 0 + t 0 ') / 2, t m1 = (t 1
+ T 1 ') / 2, t m2 = (t 2 + t 2 ') / 2, t m3 =
The position of the subject image at (t 3 + t 3 ') / 2, ...

【0080】本実施例のカメラにおいては、時刻ts
露光が開始された直後にCCD41の最初の積分(積分
期間t0〜t0’)が行われる。この最初に出力される画
像データ(初期画像データ)は基準部メモリ52及び参
照部メモリ53に記憶される。そして記憶された初期画
像データを用いて、上述のコントラスト演算、及びブロ
ック選択が行われる。
In the camera of this embodiment, the first integration (integration period t 0 to t 0 ') of the CCD 41 is performed immediately after the exposure is started at the time t s . The first output image data (initial image data) is stored in the standard memory 52 and the reference memory 53. Then, the above-described contrast calculation and block selection are performed using the stored initial image data.

【0081】2回目以降の積分(積分期間t1〜t1’,
2〜t2’,t3〜t3’,…)によって出力される画像
データは、次々と参照部メモリ53に記憶される。な
お、基準部メモリ52には最初に記憶した初期画像デー
タをそのまま記憶しておく。繰返し積分が行われて画像
データが出力される度に、基準部メモリ及び参照部メモ
リに記憶された両画像データを用いて、横方向の被写体
像の移動量:Px1−Px0,Px2−Px0,Px3−P
0,…、及び縦方向(不図示)の被写体像の移動量:
Py1−Py0,Py2−Py0,Py3−Py0,…が検出
される。
The second and subsequent integrations (integration periods t 1 to t 1 ',
t 2 ~t 2 ', t 3 ~t 3', ...) image data output by the stored one after another reference unit memory 53. The reference part memory 52 stores the initially stored initial image data as it is. Each time the iterative integration is performed and the image data is output, the amount of movement of the subject image in the lateral direction: Px 1 -Px 0 , Px 2 is calculated using both the image data stored in the standard memory and the reference memory. -Px 0 , Px 3 -P
x 0 , ..., And the amount of movement of the subject image in the vertical direction (not shown):
Py 1 -Py 0, Py 2 -Py 0, Py 3 -Py 0, ... is detected.

【0082】なお、被写体像の移動量は、正確には露光
開始時刻tsにおける被写体像の位置と各積分時刻にお
ける被写体像の平均位置との距離であるから、各積分時
刻における被写体像の移動量データは、以下の数7に示
すようにすべきであるが、本実施例では、tm0≒ts
Px0≒Pxs,Py0≒Pysと近似し、以下の数8に示
すようにしている。上記近似によりブレデータ0は、常
に0となる。
The amount of movement of the subject image is the distance between the position of the subject image at the exposure start time ts and the average position of the subject image at each integration time, so the amount of movement of the subject image at each integration time is accurate. The data should be as shown in Equation 7 below, but in the present embodiment, tm 0 ≈t s ,
It is approximated by Px 0 ≈Px s and Py 0 ≈Py s, and is represented by the following formula 8. The blur data 0 is always 0 by the above approximation.

【0083】[0083]

【数7】 [Equation 7]

【0084】[0084]

【数8】 [Equation 8]

【0085】以上説明した方法により、R成分に対する
時刻データt、横方向ブレ量データX、縦方向ブレ量デ
ータYが求めらる。またその他のG,B成分について
も、同様の方法によって、時刻データ及び縦/横ブレ量
データが求められる。これらのブレデータは情報書込部
33により、フィルム巻き上げ時にフィルム上に記録さ
れる。また、ブロック選択後に読み出された初期画像デ
ータについても、RGBそれぞれの初期画像データがフ
ィルム巻き上げ時に記録される。
The time data t for the R component, the horizontal blur amount data X, and the vertical blur amount data Y are obtained by the method described above. Also, for other G and B components, time data and vertical / horizontal blur amount data are obtained by the same method. These blur data are recorded on the film by the information writing unit 33 when the film is wound up. As for the initial image data read out after the block is selected, the initial image data for each of RGB is recorded when the film is wound.

【0086】次に、CCD41の積分時間の制御につい
て説明する。図9(A)は、上記照度モニタ回路の回路
構成図である。照度モニタ回路43は、SPDからなる
受光素子431、その受光素子431から出力される電
流を積分し、その積分値を出力する積分回路432、及
びその積分回路432の積分値をリセットするリセット
スイッチ433から構成されている。
Next, the control of the integration time of the CCD 41 will be described. FIG. 9A is a circuit configuration diagram of the illuminance monitor circuit. The illuminance monitor circuit 43 integrates the light receiving element 431 formed of SPD, the current output from the light receiving element 431 and outputs the integrated value, and the reset switch 433 that resets the integrated value of the integrating circuit 432. It consists of

【0087】受光素子431は、被写体からの反射光を
受光し、被写体の照度に比例した電流に光電変換して積
分回路432に出力する。積分回路432は、受光素子
431から入力された電流を積分し、その積分値はクロ
ックジェネレータ45に出力される。積分回路432の
出力電流は、受光素子431に入射した光量に比例し、
単位時間当りの出力電流は、被写体像の照度に比例して
いる。
The light receiving element 431 receives the reflected light from the subject, photoelectrically converts it into a current proportional to the illuminance of the subject, and outputs it to the integrating circuit 432. The integrating circuit 432 integrates the current input from the light receiving element 431, and the integrated value is output to the clock generator 45. The output current of the integrating circuit 432 is proportional to the amount of light incident on the light receiving element 431,
The output current per unit time is proportional to the illuminance of the subject image.

【0088】上記照度モニタ回路は、被写体が蛍光灯な
どの交流光源で照明されている場合でもCCD41の電
荷蓄積量を一定に保つために、被写体の照度をモニタす
るものである。交流光源の照明下にある被写体を撮像す
る場合に、CCD41の積分時間を一定にしていると、
毎回の電荷蓄積量が変動してしまう。(これについて
は、後に詳述する。)従って、CCD41の電荷蓄積量
を安定させるためには、被写体の照度に合わせて積分時
間を調節する必要がある。本実施例においては、CCD
41の積分開始と同時に照度モニタ回路43の積分回路
432の積分を開始させ、その積分回路432の出力電
流に基づきCCD41の積分終了タイミングを制御する
ようにしている。なお、図9(B)は、図9(A)の変
形例である。
The illuminance monitor circuit monitors the illuminance of the subject in order to keep the charge storage amount of the CCD 41 constant even when the subject is illuminated by an AC light source such as a fluorescent lamp. When the subject under illumination of the AC light source is imaged, if the integration time of the CCD 41 is constant,
The amount of accumulated charge changes every time. (This will be described in detail later.) Therefore, in order to stabilize the charge storage amount of the CCD 41, it is necessary to adjust the integration time according to the illuminance of the subject. In this embodiment, the CCD
Simultaneously with the start of the integration of 41, the integration of the integration circuit 432 of the illuminance monitor circuit 43 is started, and the integration end timing of the CCD 41 is controlled based on the output current of the integration circuit 432. Note that FIG. 9B is a modification example of FIG. 9A.

【0089】次に、図9(A)を参照に、CCD41を
ブレ検出センサとして用いる場合の、積分時間制御の動
作について説明する。まず、リセット回路をONするこ
とにより積分回路をリセットすると同時に、CCD41
の蓄積部の電荷をクリアする。そしてCCD41の積分
が開始されるとリセット回路がOFFされ、測光回路が
積分を開始する。
Next, the operation of the integration time control when the CCD 41 is used as the shake detection sensor will be described with reference to FIG. First, the reset circuit is turned on to reset the integrating circuit, and at the same time, the CCD 41
Clear the charge in the storage part of. Then, when the integration of the CCD 41 is started, the reset circuit is turned off, and the photometric circuit starts the integration.

【0090】図10は、測光回路出力の時間的変化を表
す図である。横軸tは積分時間を表し、縦軸Iは測光回
路の出力の大きさを表す。被写体が交流光源によって照
明されている場合、測光回路の出力は図に示すように曲
線を描いて上昇していく。測光出力を適当な基準値I0
と比較して、測光出力IがI0になったときに積分回路
がリセットされ、CCD41の積分が打ち切られる。C
CD41の出力が読み出され、露光量が適当であるかど
うかが判断される。露光量が適当である場合には、以後
の露光には基準値I0が用いられる。露光量が不適当で
あった場合、例えば基準値をk倍し、I0×kが新しい
基準値とされ、以後の露光が行われる。
FIG. 10 is a diagram showing the temporal change of the photometric circuit output. The horizontal axis t represents the integration time, and the vertical axis I represents the magnitude of the output of the photometric circuit. When the subject is illuminated by the AC light source, the output of the photometric circuit rises in a curved line as shown in the figure. The photometric output is set to an appropriate reference value I 0.
In comparison, when the photometric output I reaches I 0 , the integration circuit is reset and the integration of the CCD 41 is terminated. C
The output of the CD 41 is read and it is determined whether the exposure amount is appropriate. When the exposure amount is appropriate, the reference value I 0 is used for the subsequent exposures. When the exposure amount is inappropriate, for example, the reference value is multiplied by k, I 0 × k is set as a new reference value, and the subsequent exposure is performed.

【0091】以上説明したようなブレ検出動作を含め
た、カメラのシーケンスを、メインCPU及びブレ検出
用のコントロールCPUのフローチャートに基づいて説
明する。 まずメインCPU21のシーケンスについ
て、図11を参照して説明する。ステップ#A5(以下
ステップを略す。)のループで、メインCPUは待機状
態にあり、シャッタボタンの第1ストロークでスイッチ
S1がONになるのを待っている。スイッチS1がON
になると、AF完了フラグAFEF及び各種信号がリセ
ットされ(#A10)、測光部23、AFモジュール2
9、ブレ検出部32等必要な回路の電源が投入される
(#A15)。次に、コントロールCPU63に内蔵さ
れたタイマがリセットされた後スタートされ(#A2
0)、撮影レンズ回路25から撮影レンズ11に関する
データが入力され(#A25)、測光が行われる(#A
30)。
The camera sequence including the above-described blur detection operation will be described with reference to the flowcharts of the main CPU and the blur detection control CPU. First, the sequence of the main CPU 21 will be described with reference to FIG. In a loop of step # A5 (hereinafter abbreviated as step), the main CPU is in a standby state and waits for the switch S1 to be turned on by the first stroke of the shutter button. Switch S1 is ON
Then, the AF completion flag AFEF and various signals are reset (# A10), and the photometry unit 23 and the AF module 2
9. The necessary circuits such as the shake detection unit 32 are powered on (# A15). Next, the timer built in the control CPU 63 is reset and then started (# A2
0), data relating to the taking lens 11 is input from the taking lens circuit 25 (# A25), and photometry is performed (#A).
30).

【0092】#A35では、AF完了フラグAFEFが
1かどうか判定され、1であればプログラムは#A50
にジャンプし、1でなければ#A40に進む。#A40
では被写体までの距離検出が行われ、#A45でAF完
了フラグAFEFが1にセットされる。#A50では、
#A30で得られた測光値、フィルム感度、及び#A4
0で得られた距離情報をもとにAE演算が行われる。#
A55では、CCD41の露光量が設定される。
In # A35, it is determined whether or not the AF completion flag AFEF is 1, and if it is 1, the program is # A50.
Jump to # 1, and if not 1, go to # A40. # A40
Then, the distance to the subject is detected, and the AF completion flag AFEF is set to 1 in # A45. # A50
Photometric value, film sensitivity, and # A4 obtained in # A30
AE calculation is performed based on the distance information obtained at 0. #
At A55, the exposure amount of the CCD 41 is set.

【0093】#A60でシャッタボタンの第2ストロー
クでスイッチS2がONされているかどうかを判定す
る。スイッチS2がONであれば、プログラムは#A8
5へ進み、ONでなければ#A65にジャンプする。#
A65ではスイッチS1がONかどうかを判定する。S
1がONであれば、プログラムは#A20へジャンプす
る。S1がONでなければシャッタボタンの没入操作が
解除されているので、#A70で一定時間経過している
かをコントロールCPU63に内臓されたタイマによっ
て判定する。一定時間経過していれば測光部23、AF
モジュール29、ブレ検出部32等の回路の電源をOF
Fし(#A80)、#A5の待機状態へプログラムはジ
ャンプする。一定時間経過していなければ、AF完了フ
ラグAFEFが0に設定され(#A75)、プログラム
は#A65へ進む。
At # A60, it is determined whether or not the switch S2 is turned on by the second stroke of the shutter button. If the switch S2 is ON, the program is # A8
5. If not ON, jump to # A65. #
At A65, it is determined whether the switch S1 is ON. S
If 1 is ON, the program jumps to # A20. If S1 is not ON, since the immersing operation of the shutter button has been released, it is determined at # A70 by the timer incorporated in the control CPU 63 whether or not a predetermined time has elapsed. If a certain time has elapsed, the photometric unit 23, AF
The power supply for the circuits such as the module 29 and the shake detection unit 32 is turned off.
Then, the program jumps to the standby state of # A5 (# A80). If the fixed time has not elapsed, the AF completion flag AFEF is set to 0 (# A75), and the program proceeds to # A65.

【0094】S2がONされると撮影レンズ11をピン
ト位置へ駆動し(#A85)、ブレ検出信号がHレベル
にされて(#A90)、コントロールCPU63のブレ
検出シーケンスがスタートされる。#A95において、
シャッタ羽根26が開かれ露光が開始される。シャッタ
羽根26が閉じられて露光が終了すると、ブレ検出信号
がLレベルにされて、コントロールCPU63に露光が
終了したことが知らされる(#A100)。露光終了
後、その露光における撮影情報(日付データや露出値
等)を情報書込部33に出力する(#A103)。
When S2 is turned on, the photographing lens 11 is driven to the focus position (# A85), the blur detection signal is set to the H level (# A90), and the blur detection sequence of the control CPU 63 is started. In # A95,
The shutter blades 26 are opened and exposure is started. When the shutter blades 26 are closed and the exposure is completed, the blur detection signal is set to the L level, and the control CPU 63 is informed that the exposure is completed (# A100). After the exposure, the shooting information (date data, exposure value, etc.) in the exposure is output to the information writing unit 33 (# A103).

【0095】#A105でフィルムの巻き上げを行い、
同時に#A110で情報書込部33により、ブレ量など
のブレ情報及び日付などの撮影情報を、フィルム上に記
録する。#A115で撮影レンズを初期位置に戻し、#
A120でS2がOFFになるのを待ってから、プログ
ラムは#A65にジャンプして次の撮影に備えられる。
The film is wound up at # A105,
At the same time, in # A110, the information writing unit 33 records the blur information such as the blur amount and the shooting information such as the date on the film. # Return the shooting lens to the initial position with A115,
After waiting for S2 to be turned off at A120, the program jumps to # A65 to prepare for the next shooting.

【0096】次に図12を参照してコントロールCPU
の動作について説明する。図11の#A15において、
ブレ検出部の電源が投入されてシーケンスがスタートさ
れる。
Next, referring to FIG. 12, the control CPU
The operation of will be described. In # A15 of FIG. 11,
The power of the shake detection unit is turned on and the sequence is started.

【0097】#B5において各フラグ・出力信号がリセ
ットされ、#B10で、CCD41の画素数などのブレ
検出センサ14に関するデータが、情報書込部33に出
力される。#B15ではメインCPU21からのブレ検
出信号がHレベルとなるのを待ち、Hレベルとなるとブ
レ検出シーケンスが開始される。ブレ検出信号がHレベ
ルとなりブレ検出が開始されると、CCD41の積分が
一端リセットされた後開始される(#B20)。#B2
5で積分が終了するのを待ち、積分終了後読み出された
RGBそれぞれの画像の画素データは、基準部メモリ5
2及び参照部メモリ53の所定の記憶領域にダンプされ
る(#B30)。画素データのダンプ後、再びCCD4
1の積分がリセットされた後開始される(#B35)。
In # B5, each flag and output signal are reset, and in # B10, data relating to the blur detection sensor 14 such as the number of pixels of the CCD 41 is output to the information writing section 33. In # B15, the shake detection signal from the main CPU 21 is waited for the H level, and when it becomes the H level, the shake detection sequence is started. When the blur detection signal becomes H level and the blur detection is started, the integration of the CCD 41 is once reset and then started (# B20). # B2
Waiting for the integration to end in 5, the pixel data of each of the RGB images read after the integration is completed is stored in the reference unit memory 5
2 and the reference unit memory 53 are dumped to a predetermined storage area (# B30). After dumping pixel data, again CCD4
It is started after the integration of 1 is reset (# B35).

【0098】#B40において、#B30でダンプした
画素データに基づきRGBそれぞれの色成分についてコ
ントラスト演算が行われ、算出されたコントラスト値に
基づいてブロック選択が行われる(#B45)。#B5
0において、基準部メモリ52に記憶された画素データ
が、初期画像データとして情報書込部33に出力され
る。
In # B40, contrast calculation is performed for each of the RGB color components based on the pixel data dumped in # B30, and block selection is performed based on the calculated contrast value (# B45). # B5
At 0, the pixel data stored in the reference unit memory 52 is output to the information writing unit 33 as initial image data.

【0099】#B55で、CCD41の積分が終了する
のを待ち、積分終了後読み出されたRGBそれぞれの画
像の画素データは、参照部メモリ53の所定の記憶領域
にダンプされる(#B60)。画素データのダンプ後、
再びCCD41の積分がリセットされて開始される(#
B65)。
At # B55, the completion of the integration of the CCD 41 is awaited, and the pixel data of each image of RGB read after the completion of the integration is dumped into a predetermined storage area of the reference memory 53 (# B60). . After dumping the pixel data,
The integration of the CCD 41 is reset and started again (#
B65).

【0100】#B70及び#B75において、RGBそ
れぞれの色成分について、上述の相関演算及び補間演算
が行われる。#B80において積分期間の中心時刻が演
算され、#B85においてRGBそれぞれの時刻デー
タ、縦/横方向ブレ量データが情報書込部33に出力さ
れる。#B90では、メインCPU21からのブレ検出
信号がLレベルかどうかを判定する。Lレベルであれば
撮影は終了しており、プログラムは#B10へジャンプ
してブレ検出を終了する。Lレベルでなければブレ検出
を引き続いて行うためにプログラムは#B55へジャン
プする。
In # B70 and # B75, the above correlation calculation and interpolation calculation are performed for each of the RGB color components. In # B80, the central time of the integration period is calculated, and in # B85, the RGB time data and the vertical / horizontal blur amount data are output to the information writing unit 33. In # B90, it is determined whether the blur detection signal from the main CPU 21 is at L level. If it is at the L level, shooting has ended, and the program jumps to # B10 to end blur detection. If it is not at the L level, the program jumps to # B55 in order to carry out blur detection subsequently.

【0101】以上が、メインCPU21及びコントロー
ルCPU63による、カメラのシーケンスである。
The above is the camera sequence performed by the main CPU 21 and the control CPU 63.

【0102】次に、本発明にかかる画像記録・再生シス
テムの再生装置について説明する。図13は、本発明に
かかる再生装置3の主要部を示すブロック図である。図
中81は上述のカートリッジ2内に収納された現像済み
フィルムであり、本発明の再生装置はこの現像済みフィ
ルム81に記録された画像を電気信号に変換し、テレビ
モニタ4上に再生するものである。80はフィルム81
を照射するための光源であり、82はフィルム上の画像
を撮像素子であるエリアセンサ83上に結像するための
光学系である。エリアセンサ83はその撮像エリア上に
結像された画像を、RGBそれぞれの色成分の電気信号
(画像信号)に変換して出力する。またエリアセンサ8
3は、センサメモリ94を備えている。このセンサメモ
リ94には、エリアセンサ83の画素数や画素ピッチ、
あるいは撮像光学系82の焦点距離等のデータが記憶さ
れている。エリアセンサ83によって出力されたRGB
の画像信号はA/D変換部84によってデジタルデータ
に変換された後、一端メモリ85に記憶される。
Next, a reproducing apparatus of the image recording / reproducing system according to the present invention will be described. FIG. 13 is a block diagram showing a main part of the reproducing apparatus 3 according to the present invention. In the figure, reference numeral 81 denotes a developed film housed in the cartridge 2 described above, and the reproducing apparatus of the present invention converts an image recorded on the developed film 81 into an electric signal and reproduces it on the television monitor 4. Is. 80 is a film 81
Is an optical system for forming an image on a film on an area sensor 83 which is an image pickup element. The area sensor 83 converts the image formed on the imaging area into electrical signals (image signals) of RGB color components and outputs the electrical signals. Area sensor 8
3 includes a sensor memory 94. In the sensor memory 94, the number of pixels and the pixel pitch of the area sensor 83,
Alternatively, data such as the focal length of the image pickup optical system 82 is stored. RGB output by the area sensor 83
The image signal of is converted into digital data by the A / D conversion unit 84 and then stored in the memory 85.

【0103】情報読取部89は、カメラによって画像と
ともにフィルム上に記録されたブレ情報及び日付データ
等の撮影情報を読み取るものである。変換部90は、情
報読取部89によって読み取られたブレ情報を再生装置
に適したフォーマットに変換するものである。具体的に
説明すると、上述のようにカメラによって記録されたブ
レ量データは、カメラ側のCCD41上におけるブレ量
である。従って例えばカメラ側で「CCD41上で右に
X画素上にY画素移動した」というブレ量データをフィ
ルム上に記録しても、画素数等が異なる再生装置側のエ
リアセンサ83が出力した画像データのブレ補正にその
まま用いることはできない。初期画像データについても
同様であり、カメラ側が記録するのはCCD41の各画
素の撮像データであり、再生装置側のエリアセンサ83
の各画素とは対応しない。変換部90は、カメラ側が記
録したCCD41に関するデータ(画素数、画素ピッチ
等)と、再生装置側のエリアセンサ83に関するデータ
(センサメモリ94から入力)とに基づいて、カメラ側
のCCD41上でのブレ情報を、再生装置側のエリアセ
ンサ83上でのフォーマットに変換する。
The information reading section 89 reads the photographing information such as the blur information and the date data recorded on the film together with the image by the camera. The conversion unit 90 converts the blur information read by the information reading unit 89 into a format suitable for the reproducing device. Specifically, the blur amount data recorded by the camera as described above is the blur amount on the CCD 41 on the camera side. Therefore, for example, even if the camera side records the blur amount data "moved to the right on the CCD 41 to the X pixel to the Y pixel" on the film, the image data output by the area sensor 83 on the reproducing device side having a different number of pixels or the like. It cannot be used as is for blur correction. The same applies to the initial image data, and the camera side records the imaged data of each pixel of the CCD 41, and the area sensor 83 on the reproduction device side.
No corresponding pixel. The conversion unit 90, based on the data (number of pixels, pixel pitch, etc.) regarding the CCD 41 recorded by the camera side and the data regarding the area sensor 83 on the reproducing device side (input from the sensor memory 94), stores the data on the CCD 41 on the camera side. The blur information is converted into a format on the area sensor 83 on the reproducing device side.

【0104】この変換の1例を簡単に説明しておくと、
ブレ検出センサ14上でのp画素は、エリアセンサ83
上ではp×P1・β1×β2/P2画素となる。ただしβ1
=(撮影レンズの焦点距離f)/(ブレ検出光学系13
の焦点距離fd)、β2=撮像光学系82の倍率、P1
CCD41の画素ピッチ、P2はエリアセンサ83の画
素ピッチである。
To briefly explain an example of this conversion,
The p pixel on the blur detection sensor 14 is the area sensor 83.
In the above, there are p × P 1 · β 1 × β 2 / P 2 pixels. Where β 1
= (Focal length f of photographing lens) / (blurring detection optical system 13)
F2), β 2 = magnification of the imaging optical system 82, P 1 is the pixel pitch of the CCD 41, and P 2 is the pixel pitch of the area sensor 83.

【0105】情報読取部89によって読み取られたデー
タは、ブレ情報については変換部90によって上記変換
が行われた後、その他の撮影情報についてはそのまま情
報記憶部91に記憶される。
The data read by the information reading section 89 is subjected to the above conversion for the blur information by the conversion section 90, and then stored for the other photographing information as it is in the information storage section 91.

【0106】演算部86は、情報記憶部91に記憶され
たブレ情報を入力し、メモリ85に記憶されたRGBそ
れぞれの画像信号について、画像処理を行うことにより
ブレを補正する。このブレ補正の方法については後に詳
述する。さらに演算部86は、情報記憶部91に記憶さ
れたその他の撮影情報に基づいて、カラーバランス等の
ための画像処理も行う。ブレ補正及び、カラーバランス
等のその他の補正が行われた後、演算部86から出力さ
れたRGBの画像信号はメモリ87に記憶される。そし
て、出力処理部88によりRGB信号からNTSC信号
に変換され、出力端子93を通して、テレビモニタに出
力される。再生CPU92は上述のブレ補正のためのシ
ーケンスをはじめ、再生装置3全体の制御を行うもので
ある。
The arithmetic section 86 inputs the blur information stored in the information storage section 91, and corrects the blur by performing image processing on each of the RGB image signals stored in the memory 85. The method of this blur correction will be described later in detail. Further, the calculation unit 86 also performs image processing for color balance and the like based on the other shooting information stored in the information storage unit 91. After blurring correction and other corrections such as color balance are performed, the RGB image signal output from the calculation unit 86 is stored in the memory 87. Then, the output processing unit 88 converts the RGB signal into an NTSC signal, and outputs the NTSC signal to the television monitor through the output terminal 93. The reproduction CPU 92 controls the entire reproduction apparatus 3 including the above-described sequence for blur correction.

【0107】次に演算部86が行う、画像処理によるブ
レ補正の方法を説明する。本発明においては、フィルム
上に記録されたブレ画像と、カメラによってその画像と
ともに記録されたブレ情報を用いて、ブレる前の原画像
を推定、復元するものとする。なお、演算部86におい
てはRGBそれぞれの色成分についてブレ補正を行う
が、簡単のため以後はR成分に対するブレ補正について
説明する。従って、後述の画像(画素)データやブレデ
ータ、あるいは劣化関数などはいずれもR成分に関する
ものである。G,B成分については、R成分と全く同様
の方法でブレ補正が行われるので説明を省略する。
Next, a method of blur correction by image processing performed by the arithmetic unit 86 will be described. In the present invention, it is assumed that the original image before blurring is estimated and restored using the blurring image recorded on the film and the blurring information recorded together with the image by the camera. Note that the calculation unit 86 performs blur correction for each of the RGB color components, but for simplicity, the blur correction for the R component will be described below. Therefore, the image (pixel) data, blur data, deterioration function, etc. described below are all related to the R component. Since blur correction is performed for the G and B components in the same manner as for the R component, description thereof will be omitted.

【0108】ブレの影響を受けた画像(いわゆるブレ画
像)をg(x,y)、原画像をf(x,y)とすると、
これらの画像間には以下のような関係が成り立つことが
知られている。
Letting g (x, y) be an image affected by blurring (so-called blurry image) and f (x, y) be the original image,
It is known that the following relationships are established between these images.

【0109】[0109]

【数9】 [Equation 9]

【0110】上記(9)式は、デジタル画像処理におい
ては、下記(10)式で表される。
The above equation (9) is represented by the following equation (10) in digital image processing.

【0111】[0111]

【数10】 [Equation 10]

【0112】(10)式において、g(i,j)は、エ
リアセンサの(i,j)の位置の画素データであり、f
(k,l)は、復元すべきエリアセンサの(k,l)
(ただし、i≠k,j≠l)の位置の画素データであ
る。
In the equation (10), g (i, j) is pixel data at the position (i, j) of the area sensor, and f (i, j) is f.
(K, l) is the (k, l) of the area sensor to be restored
It is the pixel data at the position (where i ≠ k, j ≠ l).

【0113】(9)式は、ブレ画像の(x,y)の位置
における画像g(x,y)は、原画像の(x,y)の位
置における画像f(x,y)が(x,y)以外の位置
(x’,y’)の画像f(x’,y’)の影響を受けて
生成されることを示し、上記劣化関数hxyは、原画像に
おいて画像f(x’,y’)が画像f(x,y)に与え
る影響の割合を示すものである。同様に、(10)式
は、ブレ画像の画素データg(i,j)は、原画像にお
ける画素データf(i,j)が(i,j)以外の位置
(k,l)の画素データf(k,l)の影響を受けて生
成されていることを示し、上記劣化関数hijは、原画像
において画素データf(k,l)が画素データf(i,
j)に与える影響の割合を示すものである。
Equation (9) shows that the image g (x, y) at the (x, y) position of the blurred image is the image f (x, y) at the (x, y) position of the original image. , y) positions other than the (x ', y') image f (x of ', y') indicates that it is produced under the influence of, the degradation function h xy is the original image the image f (x ' , Y ′) indicates the ratio of the influence of the image f (x, y). Similarly, in the equation (10), the pixel data g (i, j) of the blurred image is the pixel data f (i, j) of the original image at the position (k, l) other than (i, j). The deterioration function h ij indicates that the pixel data f (k, l) is generated by being influenced by f (k, l).
It shows the ratio of the effect on j).

【0114】上記エリアセンサ83がm×n個の画素を
有している場合、i=k=1〜m、j=l=1〜nとな
り、上記劣化関数hij(i−k,j−l)はm行n列の
行列となる。なお、本発明においては、演算部86には
A/D変換部84によってデジタル変換されたRGBの
画像データが入力されるため、以後式(10)を用いて
説明する。
When the area sensor 83 has m × n pixels, i = k = 1 to m and j = 1 to 1 to n, and the deterioration function h ij (i−k, j−). l) is a matrix with m rows and n columns. In the present invention, the RGB image data digitally converted by the A / D conversion unit 84 is input to the calculation unit 86, and therefore the following description will be given using Equation (10).

【0115】まず、情報記憶部91から入力される時刻
データ及び縦/横ブレ量データを(ts,Xs,Ys)
(ただし、s=0,1,…pであり、Xs,Ysは、そ
れぞれ時刻tsにおける縦/横ブレ量データである。)
とする。このブレ量データ(ts,Xs,Ys)を用い
て、劣化関数hijを求める。この時hijの初期値を0と
すると、劣化関数hijは以下の式で求められる。
First, the time data and the vertical / horizontal blurring amount data input from the information storage unit 91 are calculated as (ts, Xs, Ys).
(However, s = 0, 1, ... P, and Xs and Ys are vertical / horizontal blurring amount data at time ts, respectively.)
And The deterioration function h ij is obtained using the blur amount data (ts, Xs, Ys). At this time, assuming that the initial value of h ij is 0, the deterioration function h ij is obtained by the following formula.

【0116】[0116]

【数11】 [Equation 11]

【0117】今、ブレ画像の画素データであるg(i,
j)は、フィルム81上の画像がエリアセンサ83によ
って電気信号に変換されて演算部86に入力されるので
既知であり、また劣化関数hijも上記式(11)により
求めることができる。これらg(i,j)及びhijを上
記式(10)に入力すると、m×n個の連立方程式が得
られる。
Now, g (i, which is the pixel data of the blurred image)
j) is known because the image on the film 81 is converted into an electric signal by the area sensor 83 and input to the calculation unit 86, and the deterioration function h ij can also be obtained by the above equation (11). By inputting these g (i, j) and hij into the above equation (10), m * n simultaneous equations are obtained.

【0118】ところで、ブレ画像の画素データg(i,
j)は、原画像において、画素データf(i,j)が周
囲の画素データf(k,l)の影響を受けて生成された
ものであるから、原画像を構成する画素データ数は、ブ
レ画像を構成する画素データ数よりも大きくなる。すな
わち、原画像のサイズは、ブレ画像のサイズよりも大き
くなる。このため、上記(10)式から得られるm×n
個の連立方程式には、原画像の、ブレ画像と重複しない
領域の画素データ(以下、未知画素データという)が未
知数として含まれ、全未知数がm×n個以上となること
から、このままでは連立方程式を解くことはできない。
そこで、上記未知画素データに所定のダミーデータを仮
定することにより上記連立方程式をm×n元の連立方程
式に修正して解を求めるものとする。
By the way, pixel data g (i,
In j), the pixel data f (i, j) is generated in the original image under the influence of the surrounding pixel data f (k, l). Therefore, the number of pixel data forming the original image is The number of pixels is larger than the number of pixel data forming a blurred image. That is, the size of the original image is larger than the size of the blurred image. Therefore, m × n obtained from the above equation (10)
Each simultaneous equation contains pixel data of an area of the original image that does not overlap with the blurred image (hereinafter referred to as unknown pixel data) as unknowns, and the total number of unknowns is m × n or more. You cannot solve the equation.
Therefore, it is assumed that a predetermined dummy data is assumed for the unknown pixel data and the simultaneous equations are corrected to simultaneous equations of m × n elements to obtain a solution.

【0119】上記未知画素データのダミーデータとして
は、全く一義的に特定の一定値を設定しても良いし、ブ
レ画像の周縁を構成する一番外側の画素データg(i,
j)や画素データの平均値から算出しても良い。前者の
場合は、一定値は情報記憶部91に予め記憶しておき、
後者の場合は、演算部86により入力されたブレ画像の
画素データから算出する。
As the dummy data of the unknown pixel data, a specific constant value may be set uniquely, or the outermost pixel data g (i, i, which constitutes the periphery of the blurred image may be set.
j) or the average value of pixel data. In the former case, the constant value is stored in advance in the information storage unit 91,
In the latter case, it is calculated from the pixel data of the blurred image input by the calculation unit 86.

【0120】次に、上記の演算による原画像の復元動作
を具体例を用いて説明する。簡単のためブレによる画像
の劣化は、エリアセンサ83上の各画素において均一で
あるものとする。
Next, the operation of restoring the original image by the above calculation will be described using a specific example. For simplicity, it is assumed that the image deterioration due to blur is uniform in each pixel on the area sensor 83.

【0121】図14は原画像の一例を示す図である。こ
こでは簡単のためエリアセンサ83の画素数は、図に示
すように10×10個としている。図15は図14の原
画像がブレによって劣化した状態を示した図である。こ
の図15は、カメラの露光開始から終了までの間に、撮
影領域が左下へそれぞれ1画素分ずつ移動した場合、す
なわち被写体像が右上へそれぞれ1画素分ずつ移動した
場合を示している。この場合、ブレ画像の画素データg
(i,j)としては、太線で囲まれた露光終了時の撮影
領域の画素データが得られることになる。本実施例にお
いては、図15に示すように露光終了時の撮影領域の左
下の画素の座標を(1,1)とし、画像の右方向及び上
方向をそれぞれ正の方向とする。
FIG. 14 is a diagram showing an example of the original image. Here, for the sake of simplicity, the number of pixels of the area sensor 83 is set to 10 × 10 as shown in the figure. FIG. 15 is a diagram showing a state in which the original image of FIG. 14 is deteriorated due to blurring. FIG. 15 shows a case where the photographing region is moved to the lower left by one pixel each, that is, the subject image is moved to the upper right by one pixel between the start and the end of the exposure of the camera. In this case, the pixel data g of the blurred image
As (i, j), the pixel data of the photographing area at the end of the exposure, which is surrounded by the thick line, is obtained. In this embodiment, as shown in FIG. 15, the coordinates of the lower left pixel of the photographing area at the end of exposure are set to (1, 1), and the right direction and the upper direction of the image are set to the positive directions.

【0122】今、露光期間内に5回のブレ検出が行わ
れ、得られたブレデータ(ts,Xs,Ys)が以下の
とおりであったとする。
Now, it is assumed that blur detection is performed 5 times during the exposure period and the blur data (ts, Xs, Ys) obtained is as follows.

【0123】[0123]

【数12】 [Equation 12]

【0124】これらのデータは、ある(i,j)の位置
において、時刻t=0.0,0.1,0.2,0.5では原画像の
(i,j)の位置の像が露光され、時刻t=0.3,0.4で
は原画像の(i−1,j−1)の位置の像が露光された
ということを意味する。これらのデータを上記式(1
1)に代入すると
In these data, at a position (i, j), the image at the position (i, j) of the original image is exposed at time t = 0.0, 0.1, 0.2, 0.5, and at time t = 0.3, 0.4 means that the image at the position (i-1, j-1) of the original image has been exposed. From these data, the above equation (1
Substituting in 1)

【0125】[0125]

【数13】 [Equation 13]

【0126】となる。よって劣化関数hijは以下のとお
りとなる。
[0126] Therefore, the deterioration function h ij is as follows.

【0127】[0127]

【数14】 [Equation 14]

【0128】上記演算によって得られた劣化関数hij
上記式(10)に代入すると以下のとおりとなる。
Substituting the deterioration function h ij obtained by the above calculation into the above equation (10) gives the following.

【0129】[0129]

【数15】 [Equation 15]

【0130】この式(15)にエリアセンサ83の撮像
によって得られるブレ画像の画素データg(i,j)を
実際に入力すると以下のとおりとなり、10×10個の
連立方程式が得られる。
When the pixel data g (i, j) of the blurred image obtained by the image pickup of the area sensor 83 is actually input to the equation (15), the following is obtained and 10 × 10 simultaneous equations are obtained.

【0131】[0131]

【数16】 [Equation 16]

【0132】上記連立方程式には、{10×10+(1
0+10−1)}=119個の未知数がある。ここに
(10+10−1)個の未知数は、画素データf(i,
0)(i=0〜9)及びf(0,j)(j=1〜9)
で、図15における露光開始時の撮影領域の下辺及び左
辺に位置する19個の画素データに相当する。このまま
では、この方程式は解くことができないので、上記画素
データf(0〜9,0)及びf(0,1〜9)に特定の
一定値(例えば100)をダミーデータとして設定する
と、上記方程式は、
In the above simultaneous equations, {10 × 10 + (1
0 + 10-1)} = 119 unknowns. Here, the (10 + 10-1) unknowns are the pixel data f (i,
0) (i = 0 to 9) and f (0, j) (j = 1 to 9)
Then, it corresponds to 19 pixel data located on the lower side and the left side of the photographing area at the start of exposure in FIG. As it is, this equation cannot be solved. Therefore, if a specific constant value (for example, 100) is set as dummy data for the pixel data f (0-9,0) and f (0,1-9), the above equation Is

【0133】[0133]

【数17】 [Equation 17]

【0134】となり、未知数の数を10×10個とする
ことができる。この連立方程式を解くととにより原画像
の画素データf(i,j)を求めることができる。
Therefore, the number of unknowns can be set to 10 × 10. By solving this simultaneous equation, the pixel data f (i, j) of the original image can be obtained.

【0135】以上が、ブレデータ(ts,Xs,Ys)
を用いて、ブレ画像の画素データg(i,j)から原画
像の画素データf(i,j)を求める方法である。なお
上記説明では、R成分の原画像の復元方法について説明
したが、G,B成分についても全く同様の方法で原画像
を復元することができる。
The above is the blur data (ts, Xs, Ys).
Is used to obtain the pixel data f (i, j) of the original image from the pixel data g (i, j) of the blurred image. In the above description, the method of restoring the original image of the R component has been described, but the original image can be restored in the same manner for the G and B components.

【0136】ここで、上記実施例においては、未知画素
データ(原画像におけるブレ画像の領域の外側の領域の
画素データ)を全て100と仮定した。しかしながら、
上記未知画素データは、一義的にある特定の一定値とす
るよりも、被写体の情報を含んでいるブレ画像の画素デ
ータから求めた値で近似してやる方がより正確に原画像
が復元できる。以下に、別実施例として、上記未知の領
域の画素データとしてブレ画像の画素データから求めた
値で近似する例を説明する。
In the above embodiment, it is assumed that all unknown pixel data (pixel data in the area outside the blurred image area in the original image) is 100. However,
The original image can be more accurately restored by approximating the unknown pixel data by a value obtained from the pixel data of the blurred image including the information of the subject, rather than by unequivocally setting a specific value. As another embodiment, an example in which the pixel data of the unknown area is approximated by the value obtained from the pixel data of the blurred image will be described below.

【0137】〔第2実施例〕第2実施例は、上記未知画
素データを、その未知画素データに対応する位置に隣接
する位置のブレ画像の画素データg(i,j)に置き換
えるものである。具体的に説明すると、上記連立方程式
(16)における未知画素データf(0〜9,0)及び
f(0,1〜9)には、それぞれ以下のようなブレ画像
の画素データを代入する。
Second Embodiment In the second embodiment, the unknown pixel data is replaced with pixel data g (i, j) of a blurred image at a position adjacent to the position corresponding to the unknown pixel data. . More specifically, the pixel data of the blurred image as described below is substituted into the unknown pixel data f (0 to 9,0) and f (0,1 to 9) in the simultaneous equation (16).

【0138】[0138]

【数18】 [Equation 18]

【0139】上記代入を行った後は、第1実施例と同様
10×10の未知数について連立方程式を解けば良い。
本実施例によれば、上記未知画素データとして、被写体
像の情報を含むブレ画像の画素データを代入しているた
め、第1実施例のように一義的に特定の一定値を代入す
るよりも正確に原画像を復元することができる。しかも
通常の被写体では、隣接する画素同士は互いに近い画素
データを有することが多く、隣接するブレ画像の画素デ
ータを代入するすることによって、より正確に原画像が
復元できる。
After the above substitution, the simultaneous equations may be solved for 10 × 10 unknowns as in the first embodiment.
According to the present embodiment, since the pixel data of the blurred image including the information of the subject image is substituted as the unknown pixel data, it is possible to substitute a specific constant value uniquely as in the first embodiment. The original image can be accurately restored. Moreover, in a normal subject, adjacent pixels often have pixel data that are close to each other, and by substituting pixel data of adjacent blurred images, the original image can be restored more accurately.

【0140】なお、上記の隣接するブレ画像の画素デー
タの他には、例えばブレ画像の画素データの平均値など
を代入しても良い。
In addition to the pixel data of the adjacent blurred images, for example, the average value of the pixel data of the blurred images may be substituted.

【0141】〔第3実施例〕第3実施例においては、さ
らに正確に原画像を復元するために、カメラ側において
記録される初期画像データを未知画素データとして代入
するものとする。なお、初期画像データの記録方法につ
いては既に説明済みである。
[Third Embodiment] In the third embodiment, in order to more accurately restore the original image, initial image data recorded on the camera side is substituted as unknown pixel data. The recording method of the initial image data has already been described.

【0142】図16は、図14に示した原画像をカメラ
側のブレ検出センサ14によって撮像した場合を示して
いる。一般にカメラ側のブレ検出センサは再生装置側の
エリアセンサに比べて画素数が少なく、分解能が悪い。
本実施例においては簡単のため図に示すようにブレ検出
センサの画素数を5×5個とし、左下の画素の座標を
(1,1)とし、右及び上方向をそれぞれ正方向とす
る。図16に示す各画素データをe(k,l)(k=1
〜5,l=1〜5)とし、カメラ側においてはこのe
(k,l)を初期画像データとしてフィルム上に記録す
るものとする。
FIG. 16 shows a case where the original image shown in FIG. 14 is picked up by the camera shake detection sensor 14. Generally, the camera shake detection sensor has a smaller number of pixels and a lower resolution than an area sensor on the playback device side.
In this embodiment, for the sake of simplicity, the number of pixels of the blur detection sensor is 5 × 5, the coordinates of the lower left pixel are (1, 1), and the right and upper directions are the positive directions. Each pixel data shown in FIG. 16 is converted into e (k, l) (k = 1
˜5, l = 1 to 5), and this e on the camera side
(K, l) shall be recorded on the film as initial image data.

【0143】まず再生装置側では、フィルム上に記録さ
れた初期画像データe(k,l)を情報読取部89によ
って読み取った後、変換部90によって再生装置側のフ
ォーマットに変換する。再生装置側のフォーマットに変
換された初期画像の画素データをe’(i,j)(i=
1〜10,j=1〜10)とすると、この変換は例えば
以下の演算式によって行われる。
First, on the reproducing apparatus side, the initial image data e (k, l) recorded on the film is read by the information reading section 89, and then converted into the reproducing apparatus side format by the converting section 90. The pixel data of the initial image converted into the format on the reproduction device side is e ′ (i, j) (i =
1-10, j = 1 to 10), this conversion is performed by the following arithmetic expression, for example.

【0144】[0144]

【数19】 [Formula 19]

【0145】変換部90による上記変換が終了すると初
期画像の画素データe’(i,j)は、情報記憶部91
に記憶される。本実施例においては、このようにして得
られた初期画像の画素データe’(i,j)を、上記の
未知画素データとして代入するものである。具体的に
は、上記連立方程式(16)における未知画素データf
(0〜9,0)及びf(0,1〜9)には、それぞれ以
下のような画素データを代入する。
When the above conversion by the conversion unit 90 is completed, the pixel data e ′ (i, j) of the initial image is stored in the information storage unit 91.
Memorized in. In the present embodiment, the pixel data e ′ (i, j) of the initial image thus obtained is substituted as the unknown pixel data. Specifically, the unknown pixel data f in the simultaneous equations (16)
The following pixel data are substituted into (0 to 9,0) and f (0,1 to 9).

【0146】[0146]

【数20】 [Equation 20]

【0147】上記代入を行った後は、第1、第2実施例
と同様10×10の未知数について連立方程式を解けば
良い。本実施例によれば、上記未知画素データとして、
カメラ側で記録された初期画像データを代入している。
初期画像データは露光開始直後に記録された画素データ
であるため、原画像の画素データf(i,j)に非常に
近い値を有する。このため、第1実施例のように特定の
一定値を代入する場合や、第2実施例のようにブレ画像
g(i,j)から求めた値を代入する場合よりも正確に
原画像を復元することができる。
After performing the above substitution, the simultaneous equations may be solved for 10 × 10 unknowns as in the first and second embodiments. According to this embodiment, as the unknown pixel data,
The initial image data recorded on the camera side is substituted.
Since the initial image data is pixel data recorded immediately after the start of exposure, it has a value very close to the pixel data f (i, j) of the original image. For this reason, the original image is more accurate than when the specific constant value is substituted as in the first embodiment or when the value obtained from the blurred image g (i, j) is substituted as in the second embodiment. Can be restored.

【0148】なお本実施例においては、初期画像データ
としてブレ検出センサ14の全面の画素データをフィル
ム上に記録している。しかしながら上記の演算からわか
るように、未知領域は撮影範囲の周辺部にあるため、中
央部分の画素データは用いられない。従って、カメラ側
においてブレ検出センサの周辺部の画素データのみを記
録するようにしても良い。こうすることによりフィルム
上に記録するデータの数を減らすことができ、記録領域
を節約することができる。
In this embodiment, the pixel data of the entire surface of the blur detection sensor 14 is recorded on the film as the initial image data. However, as can be seen from the above calculation, since the unknown region is in the peripheral portion of the shooting range, the pixel data in the central portion is not used. Therefore, only the pixel data of the peripheral portion of the blur detection sensor may be recorded on the camera side. By doing so, the number of data recorded on the film can be reduced and the recording area can be saved.

【0149】さらに、上記演算からもわかるように、例
えば被写体像が右上にそれぞれ1画素ずつ移動した場
合、未知領域となるのは左端1列及び下端1行の範囲で
ある。同様に例えば左に1画素だけ移動した場合には右
端1列が未知領域となるし、下に2画素分移動した場合
には上端2行が未知領域となる。従って、カメラはまず
ブレ量データを検出し、そのブレ量に応じて必要な部分
のみを初期画像データとしてフィルム上に記録しても良
い。こうすることにより、さらにフィルム上に記録する
データの数を減らすことができる。
Further, as can be seen from the above calculation, for example, when the subject image is moved one pixel to the upper right, the unknown region is the range of the leftmost column and the lowermost line. Similarly, if one pixel is moved to the left, for example, the rightmost column is an unknown area, and if it is moved downward by two pixels, the upper two rows are an unknown area. Therefore, the camera may first detect the blur amount data and record only a necessary portion on the film as initial image data according to the blur amount. By doing so, the number of data recorded on the film can be further reduced.

【0150】〔第4実施例〕第4実施例においては、カ
メラ側のブレ検出センサ14は撮影範囲の中央部のみを
撮像し、中央部のみの画素データを初期画像データとし
てフィルム上に記録するものとする。図17はブレ検出
センサ14が、図14に示した原画像の中央部のみを撮
像した場合を示している。なお、ブレ検出センサ14の
画素数は簡単のため4×4個とした。この場合、撮影範
囲全体を撮像する場合(第3実施例のような場合)に比
べて分解能が高く、より正確な初期画像データを得るこ
とができる。本実施例においてはカメラ側でこの図17
に示す画素データを初期画像データとしてフィルム上に
記録するものとする。
[Fourth Embodiment] In the fourth embodiment, the camera-shake blur detection sensor 14 images only the central portion of the photographing range, and pixel data of only the central portion is recorded on the film as initial image data. I shall. FIG. 17 shows a case where the blur detection sensor 14 images only the central portion of the original image shown in FIG. The number of pixels of the blur detection sensor 14 is set to 4 × 4 for simplicity. In this case, the resolution is higher and more accurate initial image data can be obtained as compared with the case where the entire imaging range is imaged (as in the case of the third embodiment). In this embodiment, the camera side of FIG.
It is assumed that the pixel data shown in is recorded on the film as initial image data.

【0151】再生装置側では、フィルム上に記録された
この初期画像データを読み取り、変換部90による変換
を行った後、情報記憶部91に記憶する。そして演算部
86によるブレ補正の演算時に上記連立方程式(16)
に代入する。具体的には原画像の画素データf(i,
j)のf(4〜7,4〜7)に初期画像の画素データが
代入される。
On the reproducing apparatus side, the initial image data recorded on the film is read, converted by the conversion unit 90, and then stored in the information storage unit 91. Then, at the time of calculation of blur correction by the calculation unit 86, the simultaneous equations (16)
To. Specifically, the pixel data f (i,
The pixel data of the initial image is substituted into f (4 to 7, 4 to 7) of j).

【0152】この場合、上記未知画素データにダミーデ
ータを代入していないため、原画像の一部の解(特に周
辺部)が不定となってしまう。しかしながら中央部(f
(4〜7,4〜7))においては初期画像データの代入
によって正確に原画像を得ることができる。通常写真撮
影においては、撮影対象とする主被写体を中央部に位置
することが多い。従って、中央部の原画像を正確に復元
することは非常に有効なことである。なお、解が不定と
なった周辺部においては、第1実施例及び第2実施例に
記載した方法で復元すれば良い。以上が演算部86が行
う、画像処理によるブレ補正の方法である。
In this case, since dummy data is not substituted for the unknown pixel data, the solution (particularly the peripheral portion) of part of the original image becomes indefinite. However, the central part (f
In (4-7, 4-7)), the original image can be accurately obtained by substituting the initial image data. In normal photography, the main subject to be photographed is often located in the center. Therefore, it is very effective to accurately restore the central original image. In addition, in the peripheral portion where the solution is indefinite, it may be restored by the method described in the first and second embodiments. The above is the blur correction method by image processing performed by the calculation unit 86.

【0153】以上説明したようなブレ補正動作を含め
た、再生装置のシーケンスを図18のフローチャートに
基づいて説明する。なお、図18のフローチャートは、
カートリッジ2が装填され、再生画像が所定位置にセッ
トされてからテレビモニタ4上に再生されるまでの動作
を示したものである。
The sequence of the reproducing apparatus including the blur correction operation as described above will be described with reference to the flowchart of FIG. In addition, the flowchart of FIG.
The operation from the time when the cartridge 2 is loaded and the reproduced image is set at a predetermined position until the image is reproduced on the television monitor 4 is shown.

【0154】#C5においてまず、カメラ側でフィルム
上に記録された撮影情報を情報読取部89によって読み
取り、#C10においてブレ情報があるか否かを判別す
る。ブレ情報が記録されていなければ、プログラムは#
C38へジャンプし、ブレ情報以外の撮影情報を情報記
憶部91にメモリする。ブレ情報が記録されている場
合、まず変換部90がブレ検出センサ情報を入力する
(#C15)。変換部90は入力したブレ検出センサ情
報(画素数や撮像範囲等)に基づいて、カメラによって
フィルム上に記録されたブレデータ及び初期画像データ
を、演算部86がぶれ補正できるようなフォーマットの
データに変換する(#C20、#C25)。上記変換が
行われたブレデータ及び初期画像データは、情報記憶部
91に記憶される(#C30、#C35)。上記ブレ情
報が記憶されると、#C38においてその他の撮影情報
が同記憶部91に記憶される。
In # C5, first, the photographing information recorded on the film on the camera side is read by the information reading section 89, and it is determined in # C10 whether or not there is blur information. If no blur information is recorded, the program is #
The process jumps to C38 and the shooting information other than the blur information is stored in the information storage unit 91. When the blur information is recorded, the conversion unit 90 first inputs the blur detection sensor information (# C15). The conversion unit 90 is based on the input blur detection sensor information (number of pixels, image capturing range, etc.), and the blur data and initial image data recorded on the film by the camera are data in a format in which the arithmetic unit 86 can perform blur correction. (# C20, # C25). The blur data and the initial image data that have been converted are stored in the information storage unit 91 (# C30, # C35). When the blur information is stored, other shooting information is stored in the storage unit 91 in # C38.

【0155】#C40からは、再生画像の撮像動作に入
る。まずセットされた画像を照射するための光源80が
ONされ(#C40)、次にエリアセンサ83によって
画像がRGBの画像データに変換される(#C45)。
エリアセンサ83から出力された画像データは、A/D
変換部84によってデジタル変換され、メモリ85に記
憶される(#C50、#C55)。
From # C40, the reproduction image pickup operation is started. First, the light source 80 for illuminating the set image is turned on (# C40), and then the area sensor 83 converts the image into RGB image data (# C45).
The image data output from the area sensor 83 is A / D
It is digitally converted by the conversion unit 84 and stored in the memory 85 (# C50, # C55).

【0156】次に、#C60において、ブレ情報がある
か否かを判別し、ブレ情報が記録されていなければプロ
グラムは#C80へジャンプする。一方、ブレ情報が記
録されている場合には、演算部86が、情報記憶部91
に記憶されたブレデータ及び初期画像データを入力する
(#C65、#C70)。演算部86は入力したブレデ
ータ及び初期画像データに基づいて、メモリ85に記憶
されている画像データのブレ補正を行う(#C75)。
なお、ブレ補正の方法については既に説明済みである。
RGBそれぞれの色成分についてブレ補正が行われる
と、次に色バランス等のブレ補正以外の画像処理が行わ
れる(#C80)。
Next, in # C60, it is determined whether or not the blur information is present. If the blur information is not recorded, the program jumps to # C80. On the other hand, when the blur information is recorded, the calculation unit 86 causes the information storage unit 91 to
The blur data and the initial image data stored in are input (# C65, # C70). The calculation unit 86 performs blur correction of the image data stored in the memory 85 based on the input blur data and initial image data (# C75).
Note that the blur correction method has already been described.
When blur correction is performed for each of the RGB color components, image processing other than blur correction such as color balance is then performed (# C80).

【0157】ブレ補正及びその他の画像処理が行われた
画像データは、メモリ87に記憶された後(#C8
5)、出力処理部88に入力される。出力処理部88に
入力された画像データは、RGB信号からNTSC信号
に変換され(#C90)、出力端子93を通してテレビ
モニタ4へ出力される。
The image data subjected to the image blur correction and other image processing is stored in the memory 87 (# C8
5) is input to the output processing unit 88. The image data input to the output processing unit 88 is converted from an RGB signal into an NTSC signal (# C90) and output to the television monitor 4 through the output terminal 93.

【0158】以上の動作によって、フィルム81上に記
録された画像はテレビモニタ4上に再生される。なお、
セットされた画像の再生が終了すると、フィルム81が
1コマ分送られて、次のコマの画像がセットされる。次
のコマの画像がセットされると、再び#C5から同様の
動作を行い、その画像の再生が行われる。
By the above operation, the image recorded on the film 81 is reproduced on the television monitor 4. In addition,
When the reproduction of the set image is completed, the film 81 is fed by one frame and the image of the next frame is set. When the image of the next frame is set, the same operation is performed again from # C5, and the image is reproduced.

【0159】以上が本発明の画像記録・再生システムの
実施例である。なお、本実施例においては、カメラ側で
検出したブレ情報をフィルム上に記録したが、例えばI
Cカードのようなフィルムとは別の記録媒体を設けてこ
れに記録し、再生装置側ではそのICカードからブレ情
報を読み取るようにしても良い。
The above is the embodiment of the image recording / reproducing system of the present invention. In this embodiment, the blur information detected by the camera is recorded on the film.
A recording medium different from the film such as the C card may be provided and recorded on the recording medium, and the reproducing device may read the blur information from the IC card.

【0160】また撮影装置として銀塩カメラを用いた
が、これに限らず例えばビデオカメラやスチルビデオに
おいて同様にブレを検出し、ビデオテープやフロッピー
ディスクの所定領域(例えば音声トラック等)にブレ情
報を記録しても良い。再生装置となるビデオデッキで
は、その記録されたブレ情報を読み取って上に説明した
方法によってブレを補正すれば良い。
Although a silver salt camera is used as a photographing device, the present invention is not limited to this, and a blur is similarly detected in, for example, a video camera or a still video, and the blur information is displayed in a predetermined area (for example, an audio track) of a video tape or a floppy disk. May be recorded. In the video deck serving as the reproducing device, the recorded blur information may be read and the blur may be corrected by the method described above.

【0161】さらに、再生装置として画像をテレビモニ
タ上に映し出す装置を用いたが、これに限らず例えば電
気信号に変換された画像データをプリントするプリンタ
ーにも応用可能である。
Further, although a device for displaying an image on a television monitor is used as a reproducing device, the present invention is not limited to this, and can be applied to, for example, a printer for printing image data converted into an electric signal.

【0162】[0162]

【発明の効果】以上説明したように本発明の画像記録・
再生システムは、ブレ情報を検出して出力するブレ検出
手段と、予め定められた所定の画像情報を出力する出力
手段と、これらの手段から出力されるブレ情報と所定の
画像情報とに基づいて、再生される画像のブレを補正す
る補正手段を有する。上記出力手段が出力する所定の画
像情報は、上記補正手段によるブレ補正のための画像処
理において、撮影された画像からは得られない画像デー
タの代わりに入力される。従って、上記画像処理で原画
像を数学的に復元する際に、その解の一部が不定となる
ことを防ぐことができる。(請求項1) また、請求項2の発明においては、上記出力手段によっ
て出力される所定の画像情報は特定の一定値であるの
で、撮影された画像からは得られないデータを記録する
ための構成をカメラ側に設ける必要がない。また再生装
置側においても、出力手段が出力する画像情報を求める
ための演算等を必要としない。従って、簡単な構成の画
像・記録システムを実現することが可能となる。
As described above, the image recording of the present invention
The reproduction system is based on a blur detection unit that detects and outputs blur information, an output unit that outputs predetermined predetermined image information, and a blur information based on the blur information and the predetermined image information output from these units. It has a correction means for correcting the blur of the reproduced image. The predetermined image information output by the output unit is input in place of image data that cannot be obtained from the captured image in the image processing for blur correction by the correction unit. Therefore, when mathematically restoring the original image by the above image processing, it is possible to prevent a part of the solution from becoming indefinite. (Claim 1) Further, in the invention of Claim 2, since the predetermined image information output by the output means is a specific constant value, for recording data that cannot be obtained from a photographed image. There is no need to provide a structure on the camera side. In addition, the reproducing device side does not require a calculation or the like for obtaining the image information output by the output means. Therefore, it is possible to realize an image / recording system having a simple structure.

【0163】また、請求項3の発明においては、出力手
段によって出力される所定の画像情報は撮影された被写
体画像の画像情報から求められる。従って、その出力さ
れる画像情報には、ブレによる劣化は生じているものの
被写体に関するデータが含まれている。従って、例えば
上記の特定の一定値を入力するような場合に比べてより
正確に原画像を復元することができる。
Further, in the third aspect of the invention, the predetermined image information output by the output means is obtained from the image information of the photographed subject image. Therefore, the output image information includes data related to the subject although the deterioration due to blurring has occurred. Therefore, for example, the original image can be more accurately restored as compared with the case of inputting the specific constant value described above.

【0164】請求項4の発明においては、撮影装置側に
被写体像を記録する第1記録手段とは別に、ブレ補正に
用いられる画像情報を記録する第2記録手段が設けられ
ている。この第2記録手段は撮影装置上で被写体から直
接画像情報を記録することができるので、ブレが生じる
前の原画像のデータを得ることが可能である。再生装置
側では、この第2記録手段によって記録された画像情報
をブレ補正の画像処理に入力する。
According to the invention of claim 4, in addition to the first recording means for recording the subject image on the photographing device side, the second recording means for recording the image information used for blur correction is provided. Since the second recording means can record the image information directly from the subject on the photographing device, it is possible to obtain the data of the original image before the blur occurs. On the reproducing device side, the image information recorded by the second recording means is input to the image processing for blur correction.

【0165】上記のように第2記録手段によって記録さ
れた画像情報には原画像の情報が含まれているので、上
記の特定の一定値を入力する場合や、ブレによる劣化が
生じた撮影画像からの画像情報を入力する場合に比べ
て、より正確に原画像を復元することができる。
Since the image information recorded by the second recording means includes the information of the original image as described above, the photographed image which is deteriorated due to blurring when inputting the above-mentioned specific constant value The original image can be more accurately restored as compared with the case of inputting image information from.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明にかかる画像記録・再生システムの外観
図である。
FIG. 1 is an external view of an image recording / reproducing system according to the present invention.

【図2】本発明にかかるカメラの外観図である。FIG. 2 is an external view of a camera according to the present invention.

【図3】本発明にかかるカメラの主要部を示すブロック
図である。
FIG. 3 is a block diagram showing a main part of a camera according to the present invention.

【図4】本発明にかかるカメラのブレ検出部の内部を示
すブロック図である。
FIG. 4 is a block diagram showing the inside of the blur detection unit of the camera according to the present invention.

【図5】本発明にかかるカメラが有するCCDの受光面
の模式図である。
FIG. 5 is a schematic view of a light receiving surface of a CCD included in a camera according to the present invention.

【図6】本発明にかかるカメラが行う相関演算の演算結
果を表すグラフである。
FIG. 6 is a graph showing a calculation result of a correlation calculation performed by the camera of the present invention.

【図7】本発明にかかるカメラが行う相関演算の演算結
果を表すグラフである。
FIG. 7 is a graph showing a calculation result of a correlation calculation performed by the camera of the present invention.

【図8】被写体像の移動とブレ検出のタイミングの関係
を示すグラフである。
FIG. 8 is a graph showing the relationship between the movement of a subject image and the timing of blur detection.

【図9】本発明にかかるカメラが有するCCDの積分時
間を制御する回路の回路図である。
FIG. 9 is a circuit diagram of a circuit that controls an integration time of a CCD included in a camera according to the present invention.

【図10】CCDの積分時間を制御する測光回路の出力
の、時間的変化を示すグラフである。
FIG. 10 is a graph showing a temporal change in the output of the photometric circuit that controls the integration time of the CCD.

【図11】本発明にかかるカメラのメインCPUの動作
を示すフローチャートである。
FIG. 11 is a flowchart showing the operation of the main CPU of the camera of the present invention.

【図12】本発明にかかるカメラのブレ検出用のCPU
の動作を示すフローチャートである。
FIG. 12: CPU for camera shake detection according to the present invention
3 is a flowchart showing the operation of FIG.

【図13】本発明にかかる再生装置の主要部を示すブロ
ック図である。
FIG. 13 is a block diagram showing a main part of a reproducing apparatus according to the present invention.

【図14】本発明がブレ補正によって復元しようとする
原画像を示す図である。
FIG. 14 is a diagram showing an original image to be restored by blur correction according to the present invention.

【図15】原画像が右上方向に1画素分ずつ移動した場
合のブレ画像を示す図である。
FIG. 15 is a diagram showing a blurred image when the original image is moved by one pixel in the upper right direction.

【図16】5×5個の画素を有するブレ検出センサが原
画像を撮像した場合を示す図である。
FIG. 16 is a diagram showing a case where a blur detection sensor having 5 × 5 pixels captures an original image.

【図17】4×4個の画素を有するブレ検出センサが原
画像の中央部のみを撮像した場合を示す図である。
FIG. 17 is a diagram showing a case where a blur detection sensor having 4 × 4 pixels images only a central portion of an original image.

【図18】本発明にかかる再生装置の動作を示すフロー
チャートである。
FIG. 18 is a flowchart showing an operation of the reproducing apparatus according to the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 3 再生装置 4 テレビモニタ 14 ブレ検出センサ 21 メインCPU 32 ブレ検出部 33 情報書込部 52 基準部メモリ 53 参照部メモリ 55 演算器 63 コントロールCPU 81 現像済みフィルム 83 エリアセンサ 86 演算部 89 情報読取部 90 変換部 91 情報記憶部 92 再生CPU 1 Camera 3 Playback Device 4 Television Monitor 14 Blur Detection Sensor 21 Main CPU 32 Blur Detection Section 33 Information Writing Section 52 Standard Section Memory 53 Reference Section Memory 55 Computing Unit 63 Control CPU 81 Developed Film 83 Area Sensor 86 Computing Section 89 Information Reading unit 90 Conversion unit 91 Information storage unit 92 Reproduction CPU

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H04N 5/91 J 4227−5C 5/92 Z 4227−5C (72)発明者 難波 克行 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタカメラ株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification number Office reference number FI Technical display location H04N 5/91 J 4227-5C 5/92 Z 4227-5C (72) Inventor Katsuyuki Namba Osaka City Central 2-3-13 Azuchi-cho, Tokyo Osaka International Building Minolta Camera Co., Ltd.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 被写体像を所定の記録媒体に記録する撮
影装置と前記記録媒体に記録された画像を再生する再生
装置からなる画像記録・再生システムにおいて、 被写
体画像を画像情報として所定の記録媒体に記録する画像
記録手段と、 ブレに関する情報を検出して出力するブレ検出手段と、 前記記録媒体に記録された画像情報を再生する画像再生
手段と、 予め定められた所定の画像情報を出力する出力手段と、 前記ブレ検出手段によって出力されたブレに関する情報
と前記出力手段によって出力された所定の画像情報とに
基づいて、前記画像再生手段によって再生される画像の
ブレを補正する補正手段と、を備えたことを特徴とする
画像記録・再生システム。
1. An image recording / reproducing system comprising a photographing device for recording a subject image in a predetermined recording medium and a reproducing device for reproducing the image recorded in the recording medium, wherein the subject image is used as image information in the predetermined recording medium. Image recording means for recording on the recording medium, blur detection means for detecting and outputting information on blurring, image reproducing means for reproducing the image information recorded on the recording medium, and outputting predetermined predetermined image information. Output means, correction means for correcting the blur of the image reproduced by the image reproduction means, based on the information on the blur output by the blur detection means and the predetermined image information output by the output means; An image recording / reproducing system characterized by having.
【請求項2】 前記出力手段が出力する所定の画像情報
は、特定の一定値であることを特徴とする請求項1の画
像記録・再生システム。
2. The image recording / reproducing system according to claim 1, wherein the predetermined image information output by the output means is a specific constant value.
【請求項3】 前記出力手段が出力する所定の画像情報
は、前記記録媒体に記録された被写体画像の画像情報か
ら求められることを特徴とする請求項1の画像記録・再
生システム。
3. The image recording / reproducing system according to claim 1, wherein the predetermined image information output by the output means is obtained from image information of a subject image recorded on the recording medium.
【請求項4】 被写体像を所定の記録媒体に記録する撮
影装置と前記記録媒体に記録された画像を再生する再生
装置からなる画像記録・再生システムにおいて、 被写
体画像を所定の記録媒体に記録する第1記録手段と、前
記第1記録手段とは別に、被写体画像に関する情報を記
録する第2記録手段と、ブレに関する情報を検出して出
力するブレ検出手段とを有する撮影装置と、 前記記録媒体に記録された被写体画像を再生する画像再
生手段と、前記ブレ検出手段によって出力されたブレに
関する情報と前記第2記録手段によって記録された被写
体画像に関する情報とに基づいて、前記画像再生手段に
よって再生される画像のブレを補正する補正手段とを有
する再生装置と、 からなることを特徴とする画像記録・再生システム。
4. An image recording / reproducing system comprising a photographing device for recording a subject image on a predetermined recording medium and a reproducing device for reproducing the image recorded on the recording medium, wherein the subject image is recorded on the predetermined recording medium. An image pickup apparatus having a first recording unit, a second recording unit that separately records information about a subject image, and a blur detection unit that detects and outputs information about blurring, and the recording medium. Image reproduction means for reproducing the subject image recorded in the image recording means, and reproduction by the image reproduction means on the basis of the information about the blur output by the blur detection means and the information about the subject image recorded by the second recording means. An image recording / reproducing system, comprising: a reproducing apparatus having a correcting unit that corrects a blur of an image to be recorded.
JP05332436A 1992-12-28 1993-12-27 Image recording / reproducing system and photographing device Expired - Lifetime JP3129069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05332436A JP3129069B2 (en) 1992-12-28 1993-12-27 Image recording / reproducing system and photographing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP34902492 1992-12-28
JP4-349024 1992-12-28
JP05332436A JP3129069B2 (en) 1992-12-28 1993-12-27 Image recording / reproducing system and photographing device

Publications (2)

Publication Number Publication Date
JPH06343159A true JPH06343159A (en) 1994-12-13
JP3129069B2 JP3129069B2 (en) 2001-01-29

Family

ID=26574190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05332436A Expired - Lifetime JP3129069B2 (en) 1992-12-28 1993-12-27 Image recording / reproducing system and photographing device

Country Status (1)

Country Link
JP (1) JP3129069B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312314A (en) * 2006-05-22 2007-11-29 Ricoh Co Ltd Image shift detecting method and apparatus and image input device
JP2008503916A (en) * 2004-06-21 2008-02-07 インターグラフ ソフトウェアー テクノロジーズ カンパニー Real-time stabilization
JP2008061100A (en) * 2006-09-01 2008-03-13 Fujifilm Corp Image data restoration device, imaging apparatus, image data restoration method and image data restoration program
JP2010028734A (en) * 2008-07-24 2010-02-04 Canon Inc Image processing unit
US8264551B2 (en) 2004-12-28 2012-09-11 Sony Corporation Methods for correcting distortions of image-taking video signals and apparatus for correcting distortions of image-taking video signals
US9332183B2 (en) 2010-07-16 2016-05-03 Olympus Corporation Imaging device and method of controlling imaging device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008503916A (en) * 2004-06-21 2008-02-07 インターグラフ ソフトウェアー テクノロジーズ カンパニー Real-time stabilization
US8264551B2 (en) 2004-12-28 2012-09-11 Sony Corporation Methods for correcting distortions of image-taking video signals and apparatus for correcting distortions of image-taking video signals
JP2007312314A (en) * 2006-05-22 2007-11-29 Ricoh Co Ltd Image shift detecting method and apparatus and image input device
JP2008061100A (en) * 2006-09-01 2008-03-13 Fujifilm Corp Image data restoration device, imaging apparatus, image data restoration method and image data restoration program
JP4677386B2 (en) * 2006-09-01 2011-04-27 富士フイルム株式会社 Image data restoration device, imaging device, image data restoration method, and image data restoration program
JP2010028734A (en) * 2008-07-24 2010-02-04 Canon Inc Image processing unit
US9332183B2 (en) 2010-07-16 2016-05-03 Olympus Corporation Imaging device and method of controlling imaging device

Also Published As

Publication number Publication date
JP3129069B2 (en) 2001-01-29

Similar Documents

Publication Publication Date Title
USRE48552E1 (en) Method and system for image construction using multiple exposures
US7057645B1 (en) Camera system that compensates low luminance by composing multiple object images
US7856174B2 (en) Apparatus and method for image pickup
JP5219778B2 (en) Imaging apparatus and control method thereof
US9843735B2 (en) Image processing apparatus, imaging apparatus comprising the same, and image processing method
US7129980B1 (en) Image capturing apparatus and automatic exposure control correcting method
JP4018705B2 (en) Shading correction apparatus, correction method, and imaging apparatus
JP2007300595A (en) Method of avoiding shaking during still image photographing
JP2000341577A (en) Device and method for correcting camera shake
JP2009284394A (en) Imaging apparatus and imaging method
JP2011135152A (en) Image pickup apparatus and method of picking up image
JP3912404B2 (en) Imaging device
JP2007235893A (en) Method for controlling imaging device and solid-state imaging device
JP3129069B2 (en) Image recording / reproducing system and photographing device
JP2006148550A (en) Image processor and imaging device
JP2009017427A (en) Imaging device
US7710494B2 (en) Digital camera having a shutter curtain and exposure control method thereof
JP2010016630A (en) Imaging apparatus
KR101544742B1 (en) Photographing apparatus and photographing method
US20030099467A1 (en) Image recording and reproducing system capable or correcting an image deterioration
JP2007282134A (en) Imaging apparatus
JP3166462B2 (en) Image recording / reproducing system and image reproducing apparatus having blur correction function
JPH11224324A (en) Image signal processing method and device
JP4951781B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
JP2009212603A (en) Imaging apparatus and its control method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071117

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091117

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091117

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111117

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121117

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131117

Year of fee payment: 13

EXPY Cancellation because of completion of term