JP2009244490A - Camera, camera control program and camera control method - Google Patents

Camera, camera control program and camera control method Download PDF

Info

Publication number
JP2009244490A
JP2009244490A JP2008089578A JP2008089578A JP2009244490A JP 2009244490 A JP2009244490 A JP 2009244490A JP 2008089578 A JP2008089578 A JP 2008089578A JP 2008089578 A JP2008089578 A JP 2008089578A JP 2009244490 A JP2009244490 A JP 2009244490A
Authority
JP
Japan
Prior art keywords
blur
unit
camera
correction
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008089578A
Other languages
Japanese (ja)
Other versions
JP2009244490A5 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008089578A priority Critical patent/JP2009244490A/en
Publication of JP2009244490A publication Critical patent/JP2009244490A/en
Publication of JP2009244490A5 publication Critical patent/JP2009244490A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a shake correcting function act appropriately according to a user. <P>SOLUTION: A shake amount evaluated value until previous time corresponding to a photographing condition is read out (step S110). Specifically, in a step S103, when a person is selected as a photographic scene or a subject, and a photographing condition of a photographing condition setting data memory corresponding thereto is set, and also a user A is set, user A's shake amount evaluated value is read out from a user's camera shake result data memory. Whether or not the read-out shake evaluated value of the photographing condition for the user is equal to or above a prescribed value is determined (step S111). When it is determined as NO, and the shake evaluated value of the photographing condition for the user is under the prescribed value, a camera shake correction function is set to OFF. When the shake evaluated value of the photographing condition is equal to or above the prescribed value, the camera shake correction function is set to ON (step S113). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体を撮像して静止画で記録するカメラ、このカメラの制御プログラム及びカメラ制御方法に関する。   The present invention relates to a camera that captures an image of a subject and records it as a still image, a control program for the camera, and a camera control method.

従来、手ブレの大きくなるシーンや撮影条件(暗い被写体、露出時間が長い、焦点距離が長い、近接マクロ撮影、三脚不使用時)では、自動的にブレ軽減モードに切り換えたり、撮影条件やブレ補正パラメータを変更するカメラが各種提案されている(特許文献1、2、3参照)。
特開平03−170919号公報 特開2003−280059号公報 特開2004−361486号公報
Conventionally, in scenes and shooting conditions that increase camera shake (dark subjects, long exposure times, long focal lengths, close-up macro shooting, when not using a tripod), the camera automatically switches to shake reduction mode, Various cameras that change the correction parameters have been proposed (see Patent Documents 1, 2, and 3).
Japanese Patent Laid-Open No. 03-170919 JP 2003-280059 A JP 2004-361486 A

しかしながら、このような従来のカメラにおいては、ユーザ個人毎の熟練度や手ブレ発生の度合いに拘わらず、ブレ補正の実行の有無及びブレ補正の制御内容が決定されてしまう。このため、ユーザによっては、ブレ補正が不足したり、逆に不要なブレ補正に起因して処理時間や処理負担が大きくなってしまう弊害が生ずる。   However, in such a conventional camera, whether or not blur correction is performed and the control details of the blur correction are determined regardless of the skill level of each user and the degree of camera shake. For this reason, depending on the user, there is a problem that the blur correction is insufficient or, conversely, the processing time and the processing load increase due to unnecessary blur correction.

本発明は、かかる従来の課題に鑑みてなされたものであり、撮影時において、適切にブレ補正機能を実行させることのできるカメラ、このカメラの制御プログラム及びカメラ制御方法を提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object thereof is to provide a camera capable of appropriately executing a blur correction function at the time of shooting, a control program for the camera, and a camera control method. To do.

前記課題を解決するため請求項1記載の発明は、撮影手段と、この撮影手段が撮影する画像のブレを補正するブレ補正手段と、カメラ本体のブレを検出するブレ検出手段と、このブレ検出手段により検出された前記カメラ本体のブレを示すブレ情報を当該カメラに設定される撮影条件に対応させて記憶するブレ情報記憶手段と、前記カメラに設定された撮影条件に応じて、前記ブレ情報記憶手段から対応するブレ情報を取得する取得手段と、この取得手段により取得されたブレ情報に基づき、前記ブレ補正手段の動作を制御する制御手段とを備えることを特徴とする。   In order to solve the above-mentioned problem, the invention described in claim 1 is a photographing means, a blur correcting means for correcting a blur of an image photographed by the photographing means, a blur detecting means for detecting a blur of the camera body, and the blur detection. Blur information storage means for storing blur information indicating blur of the camera body detected by the means in correspondence with shooting conditions set for the camera, and the blur information according to the shooting conditions set for the camera. The image processing apparatus includes: an acquisition unit that acquires corresponding blur information from the storage unit; and a control unit that controls the operation of the blur correction unit based on the blur information acquired by the acquisition unit.

また、請求項2記載の発明は、上記請求項1記載の発明において、前記制御手段は、前記取得手段により取得されたブレ情報に基づき、前記撮影手段が撮影する画像のブレを補正すべきか否かを判断する判断手段を備え、この判断手段の判断結果に応じて、前記ブレ補正手段を動作又は停止させることを特徴とする。   Further, the invention according to claim 2 is the invention according to claim 1, wherein the control means should correct blurring of an image photographed by the photographing means based on the blur information obtained by the obtaining means. It is characterized in that there is provided a judging means for judging whether or not the blur correction means is operated or stopped according to the judgment result of the judging means.

また、請求項3記載の発明は、上記請求項1記載の発明において、前記制御手段は、
前記取得手段により取得されたブレ情報が示すブレ量が許容ブレ量以上であるか否かを判断するブレ量判断手段を備え、このブレ量判断手段の判断結果に応じて、前記ブレ補正手段を動作又は停止させることを特徴とする。
The invention according to claim 3 is the invention according to claim 1, wherein the control means is
A blur amount determining unit configured to determine whether or not a blur amount indicated by the blur information acquired by the acquiring unit is equal to or greater than an allowable blur amount, and the blur correction unit is configured according to a determination result of the blur amount determining unit; It is characterized by operating or stopping.

また、請求項4記載の発明は、上記請求項1、2又は3記載の発明において、前記ブレ補正手段は、前記撮影手段が有する光学系を駆動するブレ補正機構であることを特徴とする。   According to a fourth aspect of the present invention, in the first, second, or third aspect of the invention, the blur correction unit is a blur correction mechanism that drives an optical system included in the photographing unit.

また、請求項5記載の発明は、上記請求項1記載の発明において、前記ブレ補正手段は、前記撮影手段が撮影する画像を画像補正する画像補正手段であることを特徴とする。   According to a fifth aspect of the invention, in the first aspect of the invention, the blur correction unit is an image correction unit that corrects an image captured by the photographing unit.

また、請求項6記載の発明は、上記請求項1乃至5のいずれかに記載の発明において、前記ブレ情報記憶手段は、前記撮影手段により撮影が実行される毎に、ブレ検出手段により検出された前記カメラ本体のブレに基づき、前記ブレ情報を更新することを特徴とする。   According to a sixth aspect of the present invention, in the invention according to any one of the first to fifth aspects, the blur information storage unit is detected by the blur detection unit each time shooting is performed by the shooting unit. Further, the blur information is updated based on the blur of the camera body.

また、請求項7記載の発明は、上記請求項1乃至6のいずれかに記載の発明において、前記ブレ情報記憶手段は、当該カメラの使用者を示す情報とともに、前記ブレ情報を記憶することを特徴とする。   The invention according to claim 7 is the invention according to any one of claims 1 to 6, wherein the blur information storage means stores the blur information together with information indicating a user of the camera. Features.

また、請求項8記載の発明は、撮影手段と、この撮影手段が撮影する画像のブレを補正するブレ補正手段と、カメラ本体のブレを検出するブレ検出手段とを備えるカメラが有するコンピュータを、前記ブレ検出手段により検出された前記カメラ本体のブレを示すブレ情報を当該カメラに設定される撮影条件に対応させて記憶するブレ情報記憶手段と、前記カメラに設定された撮影条件に応じて、前記ブレ情報記憶手段から対応するブレ情報を取得する取得手段と、この取得手段により取得されたブレ情報に基づき、前記ブレ補正手段の動作を制御する制御手段として機能させることを特徴とする。   According to an eighth aspect of the present invention, there is provided a computer having a camera including a photographing unit, a blur correcting unit that corrects a blur of an image captured by the photographing unit, and a blur detecting unit that detects a blur of the camera body. According to the blur information storage means for storing blur information indicating the blur of the camera body detected by the blur detection means in correspondence with the shooting conditions set in the camera, and according to the shooting conditions set in the camera, It is characterized by functioning as acquisition means for acquiring corresponding blur information from the blur information storage means and control means for controlling the operation of the blur correction means based on the blur information acquired by the acquisition means.

また、請求項9記載の発明は、撮影手段と、この撮影手段が撮影する画像のブレを補正するブレ補正手段と、カメラ本体のブレを検出するブレ検出手段とを備えるカメラの制御方法であって、前記ブレ検出手段により検出された前記カメラ本体のブレを示すブレ情報を当該カメラに設定される撮影条件に対応させて記憶手段に記憶するブレ情報記憶ステップと、前記カメラに設定された撮影条件に応じて、前記記憶手段から対応するブレ情報を取得する取得ステップと、この取得手段ステップにより取得されたブレ情報に基づき、前記ブレ補正手段の動作を制御する制御ステップとを含むことを特徴とする。   The invention described in claim 9 is a camera control method comprising a photographing unit, a blur correcting unit for correcting blur of an image photographed by the photographing unit, and a blur detecting unit for detecting blur of the camera body. A blur information storing step for storing blur information indicating blur of the camera body detected by the blur detection unit in a storage unit in association with a shooting condition set in the camera, and shooting set in the camera An acquisition step of acquiring corresponding blur information from the storage unit according to conditions, and a control step of controlling the operation of the blur correction unit based on the blur information acquired by the acquisition unit step. And

本発明によれば、撮影条件に応じて適切なブレ補正機能を実行させることができる。これにより、不必要にブレ補正機能を実行させることによる撮影までの処理時間の増大や、装置本体への処理負担の増大を招くことなく、適切にブレ補正機能を実行させることができる。   According to the present invention, it is possible to execute an appropriate blur correction function according to shooting conditions. Accordingly, the blur correction function can be appropriately executed without causing an increase in processing time until photographing due to unnecessary execution of the blur correction function and an increase in processing load on the apparatus main body.

以下、本発明の一実施の形態を図に従って説明する。
(第1の実施の形態)
図1(A)は各実施の形態に共通するデジタルカメラ1の正面図、(B)は側面透視図、図2は背面図である。このデジタルカメラ1の本体2には、その上面部に半押し機能を備えたレリーズ釦(シャッタースイッチ)3と電源スイッチ4とが配置されており、正面部にはグリップ部5、ストロボ6及び撮像レンズ部の受光窓7が配置されている。また、背面部には、撮影モードと再生モードとを切り替えるためのモード切替スイッチ8、ズーム操作キー9、カーソルキー10、決定/OKキー11、手振れ量表示のオン・オフキーとして兼用されるDISPキー12、メニューキー13、及び、電子ファインダとしても機能するLCDからなる表示部14が配置されている。この表示部14には、モードに応じてブレ量の表示部14aが表示される。また、内部には図1(B)で図示されるように、垂直方向の角速度を検出する第1角速度センサ16と水平方向の角加速度を検出する第2角速度センサ17が配置されているとともに、回転式ミラー18、レンズ群19及び撮像素子20等が配置されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
1A is a front view of a digital camera 1 common to each embodiment, FIG. 1B is a side perspective view, and FIG. 2 is a rear view. The main body 2 of the digital camera 1 is provided with a release button (shutter switch) 3 and a power switch 4 having a half-press function on the upper surface portion, and a grip portion 5, a strobe 6 and an image pickup device on the front portion. A light receiving window 7 of the lens unit is arranged. Also, on the back side, a mode changeover switch 8 for switching between a shooting mode and a playback mode, a zoom operation key 9, a cursor key 10, a determination / OK key 11, and a DISP key which is also used as an on / off key for displaying a shake amount 12, a menu key 13 and a display unit 14 including an LCD that also functions as an electronic viewfinder are arranged. The display unit 14 displays a blur amount display unit 14a according to the mode. Further, as shown in FIG. 1B, a first angular velocity sensor 16 for detecting a vertical angular velocity and a second angular velocity sensor 17 for detecting a horizontal angular acceleration are disposed inside. A rotary mirror 18, a lens group 19, an image sensor 20, and the like are arranged.

図3(A)は前記回転式ミラー18の正面図、(B)は側面図である。この回転式ミラー18は、電磁ボイスコイルによる回転ミラーであって、垂直なYaw回転軸181に上下中央部を固定されたYaw回転ジンバル182と、このYaw回転ジンバル182の左右中央部に設けられたPitch回転軸183と、このPitch回転軸183に両側中央部を固定されて、Yaw回転ジンバル182内に配置されたPitch回転ジンバル184とが設けられ、このPitch回転ジンバル184にミラー185が配置されている。そして、Yaw駆動用VCM(ボイスコイルモータ)アクチュエータ186のムーバーとYaw回転軸181間に設けられたラック&ピニオン(図示せず)により、ムーバーが左右方向に直線移動することにより、Yaw回転ジンバル182がYaw回転軸181を中心に回転駆動される。また、Pitch駆動用VCMアクチュエータ187のムーバーとPitch回転軸183間に設けられたラック&ピニオン(図示せず)により、ムーバーが上下方向に直線移動することにより、Pitch回転ジンバル184がPitch回転軸183を中心に回転駆動されるように構成されている。   3A is a front view of the rotary mirror 18, and FIG. 3B is a side view. The rotary mirror 18 is a rotary mirror using an electromagnetic voice coil, and is provided at a Yaw rotary gimbal 182 whose upper and lower central parts are fixed to a vertical Yaw rotary shaft 181 and at the left and right central parts of the Yaw rotary gimbal 182. A Pitch rotation shaft 183 and a Pitch rotation gimbal 184 disposed in the Yaw rotation gimbal 182 are provided with the center of both sides fixed to the Pitch rotation shaft 183, and a mirror 185 is disposed on the Pitch rotation gimbal 184. Yes. Then, the mover moves linearly in the left-right direction by a rack and pinion (not shown) provided between the mover of the YCM VCM (voice coil motor) actuator 186 and the Yaw rotation shaft 181, so that the Yaw rotation gimbal 182 Is driven to rotate about the Yaw rotation shaft 181. Further, the mover moves vertically in a vertical direction by a rack and pinion (not shown) provided between the mover of the pitch driving VCM actuator 187 and the pitch rotation shaft 183, so that the pitch rotation gimbal 184 is moved to the pitch rotation shaft 183. It is comprised so that it may be rotationally driven centering on.

図4は、デジタルカメラ1の具体的回路構成を示すブロック図である。図において、操作部23は、前記レリーズ釦3や電源スイッチ4等の図1及び図2に示したスイッチやキー群等で構成され、このスイッチ及びキー群の操作情報は、入力回路24を介して、制御部25に入力される。制御部25は、CPU及びその周辺回路と、CPUの作業用メモリであるRAM等から構成されるマイクロコンピュータであり、各部を制御する。   FIG. 4 is a block diagram showing a specific circuit configuration of the digital camera 1. In the figure, the operation unit 23 is configured by the switches and key groups shown in FIGS. 1 and 2 such as the release button 3 and the power switch 4, and operation information of the switches and key groups is input via an input circuit 24. Is input to the control unit 25. The control unit 25 is a microcomputer including a CPU and its peripheral circuits, a RAM that is a working memory of the CPU, and the like, and controls each unit.

この制御部25には、表示メモリ26、表示駆動ブロック27、画像バッファメモリ28、画像信号処理部29、圧縮符号化/伸長復号化部30、静止画/動画画像メモリ31、時計回路70、プログラムメモリ32、データメモリ33、メモリIF34、外部I/Oインターフェース35、通信制御ブロック36、電源制御ブロック37及び撮影制御部38が接続されている。表示メモリ26には、表示部14に表示される各種表示データが一時的に記憶される。表示駆動ブロック27は、前記表示部14を駆動し、画像バッファメモリ28は、画像データを処理する際等において一時的に格納する。   The control unit 25 includes a display memory 26, a display drive block 27, an image buffer memory 28, an image signal processing unit 29, a compression encoding / decompression decoding unit 30, a still image / moving image memory 31, a clock circuit 70, a program A memory 32, a data memory 33, a memory IF 34, an external I / O interface 35, a communication control block 36, a power supply control block 37, and a photographing control unit 38 are connected. The display memory 26 temporarily stores various display data displayed on the display unit 14. The display drive block 27 drives the display unit 14, and the image buffer memory 28 temporarily stores the image data when processing it.

画像信号処理部29は、後述する撮像素子から制御部25が取り込んだ画像信号に対する各種処理を実行するDSPからなる。圧縮符号化/伸長復号化部30は、この画像信号処理部で処理された画像データを記録時には伸長処理し、記録した画像データを再生する際には伸長復号化する。静止画/動画画像メモリ31は、レリーズ釦3の操作により撮像された画像データ(静止画像データ)を記録保存する。時計回路70は、現在時刻を計時して制御部25に供給する。プログラムメモリ32は、後述するフローチャートに示す制御部25の制御プログラム、及び「人物撮影モード」「夜景撮影モード」等の撮影シーン毎の撮影制御プログラム、撮影シーン毎の対象被写体の種別情報、該対象被写体の種別に対応する特徴量データ等が記憶されている。   The image signal processing unit 29 is a DSP that executes various processes on an image signal taken in by the control unit 25 from an image sensor described later. The compression encoding / decompression decoding unit 30 decompresses the image data processed by the image signal processing unit at the time of recording, and decompresses and decodes the recorded image data at the time of reproduction. The still image / moving image memory 31 records and saves image data (still image data) captured by operating the release button 3. The clock circuit 70 measures the current time and supplies it to the control unit 25. The program memory 32 includes a control program of the control unit 25 shown in a flowchart to be described later, a shooting control program for each shooting scene such as “person shooting mode” and “night scene shooting mode”, target subject type information for each shooting scene, the target Feature amount data corresponding to the type of subject is stored.

データメモリ33には、シーン別の撮影条件設定データメモリ331、ユーザの手ブレ実績データメモリ332、及び手ブレ補正設定データメモリ333が設けられている。メモリIF34は、着脱自在な外部メモリ媒体39に接続されている。外部I/Oインターフェース35は、USBコネクタ40に接続され、通信制御ブロック36は無線LAN等送受信部41を介してアンテナ42に接続され、電源制御ブロック37には、電池43が接続されている。電池43からの電力は電源制御ブロック37及び制御部25を介して各部に供給される。   The data memory 33 includes a scene-specific shooting condition setting data memory 331, a user's camera shake result data memory 332, and a camera shake correction setting data memory 333. The memory IF 34 is connected to a removable external memory medium 39. The external I / O interface 35 is connected to the USB connector 40, the communication control block 36 is connected to the antenna 42 via the wireless LAN transmission / reception unit 41, and the battery 43 is connected to the power control block 37. The electric power from the battery 43 is supplied to each unit via the power control block 37 and the control unit 25.

前記撮影制御部38には、前記ストロボ6の照射角を駆動する照射各駆動部44、照射を駆動するストロボ照明駆動部45とが接続されているとともに、測光、測距センサ46の受光角を駆動する受光角駆動部47、測光、測距センサ46から色温度を検出して出力する色温度検出部48、測光データを検出して出力する測光部49及び測距データを検出して出力する測距部50が接続されている。さらに前記撮影制御部38には、前記第1及び第2角速度センサ17、17が各々角速度検出部51、52、積分器53、54を介して接続されている。   The photographing control unit 38 is connected to each irradiation drive unit 44 for driving the irradiation angle of the strobe 6 and a strobe illumination driving unit 45 for driving the irradiation. The light receiving angle driving unit 47 to be driven, the color temperature detecting unit 48 for detecting and outputting the color temperature from the photometric / ranging sensor 46, the photometric unit 49 for detecting and outputting the photometric data, and the distance measuring data are detected and output. A distance measuring unit 50 is connected. Furthermore, the first and second angular velocity sensors 17 and 17 are connected to the photographing control unit 38 via angular velocity detectors 51 and 52 and integrators 53 and 54, respectively.

一方、ズームレンズユニット55には、前記回転式ミラー18、レンズ群19及び撮像素子20が配置されているとともに、この回転式ミラー18を回転駆動する駆動機構56、前記レンズ群19中に介挿された絞り57が設けられており、また、撮像素子20の前面にはシャッター58が配置されている。   On the other hand, the zoom lens unit 55 is provided with the rotary mirror 18, the lens group 19, and the image pickup device 20, and a drive mechanism 56 that rotates the rotary mirror 18 and is inserted into the lens group 19. A diaphragm 57 is provided, and a shutter 58 is disposed in front of the image sensor 20.

さらに、前記撮影制御部38には、電動ミラーY方向駆動部59、電動ミラーX方向駆動部60、フォーカスレンズ駆動部61、ズームレンズ駆動部62、絞り駆動部63、シャッター駆動部64、映像信号処理部65及びタイミング制御&ドライバ66が接続されている。電動ミラーY方向駆動部59は、駆動機構56を駆動して回転式ミラー18を上下方向に動作させるものであり、電動ミラーX方向駆動部60は左右方向に動作させるものである。フォーカスレンズ駆動部61は、レンズ群19中のフォーカスレンズを駆動するものであり、ズームレンズ駆動部62は、ズーム操作キー9の操作に応じて被写体像を拡大または縮小すべくレンズ群19中ズームレンズを駆動するものである。また、 絞り駆動部63は前記絞り57を駆動するものであり、シャッター駆動部64は前記シャッター58を駆動するものである。前記映像信号処理部65は、撮像素子20からのアナログ信号をデジタル信号に変換するA/D回路及びこのA/D回路からのデジタル撮像信号を保持するCDSと、CDSから撮像信号を供給されるアナログアンプであるゲイン調整アンプ(AGC)等からなる。   Further, the photographing control unit 38 includes an electric mirror Y direction driving unit 59, an electric mirror X direction driving unit 60, a focus lens driving unit 61, a zoom lens driving unit 62, an aperture driving unit 63, a shutter driving unit 64, and a video signal. A processing unit 65 and a timing control & driver 66 are connected. The electric mirror Y direction drive unit 59 drives the drive mechanism 56 to operate the rotary mirror 18 in the vertical direction, and the electric mirror X direction drive unit 60 operates in the left and right direction. The focus lens driving unit 61 drives the focus lens in the lens group 19, and the zoom lens driving unit 62 zooms in the lens group 19 to enlarge or reduce the subject image in accordance with the operation of the zoom operation key 9. The lens is driven. The aperture driving unit 63 drives the aperture 57, and the shutter driving unit 64 drives the shutter 58. The video signal processor 65 is supplied with an A / D circuit that converts an analog signal from the image sensor 20 into a digital signal, a CDS that holds the digital image signal from the A / D circuit, and an image signal from the CDS. It consists of a gain adjustment amplifier (AGC), which is an analog amplifier.

図5は、前記シーン別の撮影条件設定データメモリ331及びユーザの手ブレ実績データメモリ332の構成を示す概念図である。シーン別の撮影条件設定データメモリ331には、「人物」、「風景」等の撮影シーン又は被写体に応じて、サンプル画像と撮影条件設定データ(シーン別撮影プログラム)が記憶されている。撮影条件設定データは、EVシフト(露出補正)、ストロボ、ホワイトバランス、ISO感度・・・等でからなる。また、ユーザの手ブレ実績データメモリ332には、ユーザA、ユーザB、ユーザC等のユーザを示す情報毎に、各撮影シーン又は被写体及び撮影条件設定データに対応して、両加速度センサ51、52により検出された当該ユーザにおけるデジタルカメラ1の垂直方向及び水平方向のブレ量が更新されつつ記録される。   FIG. 5 is a conceptual diagram showing configurations of the scene-specific shooting condition setting data memory 331 and the user's camera shake result data memory 332. The scene-specific shooting condition setting data memory 331 stores sample images and shooting condition setting data (scene-specific shooting program) according to the shooting scene or subject such as “person” or “landscape”. The shooting condition setting data includes EV shift (exposure correction), strobe, white balance, ISO sensitivity, etc. In addition, the user's camera shake result data memory 332 includes, for each piece of information indicating the user, such as the user A, the user B, and the user C, the acceleration sensors 51, The blur amount in the vertical direction and the horizontal direction of the digital camera 1 detected by the user in 52 is updated and recorded.

図6は本実施の形態の処理手順を示すフローチャートである。制御部25がプログラムメモリ32に格納されているプログラムに基づき各部を制御することにより、デジタルカメラ1はこのフローチャートに示すように動作する。先ず、ユーザによる操作部23での操作よって、撮影モードが設定されたか否かを判断する(ステップS101)。撮影モードが設定されず、その他のモードが設定された場合には、設定されたモードに応じてその他のモード処理を実行する(ステップS102)。   FIG. 6 is a flowchart showing the processing procedure of the present embodiment. When the control unit 25 controls each unit based on the program stored in the program memory 32, the digital camera 1 operates as shown in this flowchart. First, it is determined whether or not a shooting mode has been set by a user operation on the operation unit 23 (step S101). If the shooting mode is not set and another mode is set, other mode processing is executed according to the set mode (step S102).

撮影モードが設定された場合には、シーン別の撮影条件設定データメモリ331から選択された撮影シーン又は被写体に応じて、この撮影条件設定データメモリ331に記憶されている撮影条件設定データ(シーン別撮影プログラム)に基づき撮影条件を設定する(ステップS103)。例えば、撮影モードとして「人物」が選択された場合には、EVシフト(露出補正):±0、ストロボ:オート、ホワイトバランス:オート、ISO感度:オート・・・等が設定されることとなる。また、この撮影条件の設定に際しては、ユーザA、ユーザB、ユーザCのように、当該撮影者を特定する情報も操作部23での操作に応じて設定する。   When the shooting mode is set, the shooting condition setting data (by scene) stored in the shooting condition setting data memory 331 is selected according to the shooting scene or subject selected from the shooting condition setting data memory 331 for each scene. Shooting conditions are set based on the shooting program) (step S103). For example, when “person” is selected as the shooting mode, EV shift (exposure correction): ± 0, strobe: auto, white balance: auto, ISO sensitivity: auto, etc. are set. . In setting the shooting conditions, information for identifying the photographer, such as user A, user B, and user C, is also set according to the operation on the operation unit 23.

次に、測光処理、AF処理を実行し(ステップS104)、被写体像のスルー画像を表示部14に表示させる(ステップS105)。したがって、ユーザはこの表示部14に表示されたスルー画像を見ながら、このデジタルカメラ1の向きを調整する。また、レリーズ釦3が半押しされたか否かを判断し(ステップS106)、レリーズ釦3が半押しされない場合には、その他のキー処理を実行する(ステップS107)。   Next, photometric processing and AF processing are executed (step S104), and a through image of the subject image is displayed on the display unit 14 (step S105). Therefore, the user adjusts the direction of the digital camera 1 while viewing the through image displayed on the display unit 14. Further, it is determined whether or not the release button 3 has been half-pressed (step S106). If the release button 3 has not been half-pressed, other key processing is executed (step S107).

ユーザによりレリーズ釦3が半押しされると、ステップS106の判断がYESとなり、ステップS106からステップS108に進んで、両加速度センサ51、52により検出されている当該デジタルカメラ1の垂直方向及び水平方向のブレ量を検出して、データメモリ33に順次記録する(ステップS108)。また、測光処理、AF処理を実行する(ステップS109)   When the release button 3 is half-pressed by the user, the determination in step S106 is YES, and the process proceeds from step S106 to step S108 to detect the vertical direction and horizontal direction of the digital camera 1 detected by the two acceleration sensors 51 and 52. Are detected and sequentially recorded in the data memory 33 (step S108). Further, photometric processing and AF processing are executed (step S109).

次に、撮影条件に対応する前回までのブレ量評価値を読み出す(ステップS110)。つまり、前記ステップS103で撮影シーン又は被写体として「人物」が選択されて、これに対応する撮影条件設定データメモリ331の撮影条件が設定され、かつ、ユーザAが設定されたとすると、ユーザの手ブレ実績データメモリ332からユーザAのブレ量評価値(ユーザ別のブレ量データ)を読み出す。   Next, the previous blur amount evaluation value corresponding to the shooting condition is read (step S110). That is, assuming that “person” is selected as the shooting scene or subject in step S103, the shooting conditions in the shooting condition setting data memory 331 corresponding thereto are set, and the user A is set, the user's camera shake is set. The blur evaluation value of user A (blur amount data for each user) is read from the result data memory 332.

なお、本実施の形態においては、手ブレ実績データメモリ332にユーザ別のブレ量データを記録するようにしたが、ユーザ別の手ブレの特徴量を記録するようにしてもよく、この場合には手ブレの特徴量がブレ量評価値として読み出されることとなる。   In this embodiment, the shake amount data for each user is recorded in the camera shake result data memory 332. However, the feature amount of the shake for each user may be recorded. In this case, the feature amount of camera shake is read out as a shake amount evaluation value.

そして、このステップS110で読み出した当該ユーザにおける当該撮影条件のブレ評価値が所定値以上であるか否かを判断する(ステップS111)。この判断がNOであって、当該ユーザにおける当該撮影条件のブレ評価値が所定値未満である場合には、当該ユーザの当該撮影条件における手ブレは少なく、手ブレ補正は必要ないものと推定される。よって、この場合には、手ブレ補正機能をOFFに設定する。   Then, it is determined whether or not the blur evaluation value of the shooting condition for the user read in step S110 is equal to or greater than a predetermined value (step S111). If this determination is NO and the blur evaluation value of the shooting condition for the user is less than a predetermined value, it is estimated that the camera shake in the shooting condition of the user is small and no camera shake correction is necessary. The Therefore, in this case, the camera shake correction function is set to OFF.

これにより、当該ユーザが手ブレが少ない撮影条件で撮影を行った場合において、無用な手ブレ補正機能が動作することを防止することができる。   Thereby, when the user performs shooting under shooting conditions with less camera shake, it is possible to prevent an unnecessary camera shake correction function from operating.

また、ステップS111での判断の結果、当該撮影条件のブレ量評価値が所定値以上である場合には、手ブレ補正機能をONに設定して、回転式ミラー18、電動ミラーY方向駆動部59及び電動ミラーX方向駆動部60等で構成される手ブレ補正装置を起動させる(ステップS113)。   Further, as a result of the determination in step S111, when the blur amount evaluation value of the photographing condition is equal to or greater than a predetermined value, the camera shake correction function is set to ON, and the rotary mirror 18 and the electric mirror Y direction driving unit are set. The camera shake correction device including 59 and the electric mirror X direction driving unit 60 is activated (step S113).

したがって、ユーザ個人毎に異なる熟練度や手ブレ発生の度合いに応じて、ブレ補正を行うことができる。よって、不要なブレ補正に起因して処理時間や処理負担が大きくなってしまうことなく、ユーザに応じて適切にブレ補正機能を発生させることができる。   Therefore, it is possible to perform blur correction according to the skill level and the degree of occurrence of camera shake that are different for each user. Therefore, the blur correction function can be appropriately generated according to the user without increasing the processing time and the processing burden due to unnecessary blur correction.

また、ステップS113に続くステップS114では、半押しされているレリーズ釦3が全押しされたか否かを判断し、全押しされなかった場合にはステップS106に戻る。そして、ユーザが半押ししていたレリーズ釦3を全押しすると、ステップS114の判断がYESとなる。したがって、ステップS114からステップS115に進み、測光値と露出条件に応じて露出タイマーを設定し、タイマー計時を開始する(ステップS115)。また、両加速度センサ16、17により検出されている当該デジタルカメラ1の垂直方向及び水平方向(Yaw/Pitch方向)のブレ量を検出して、データメモリ33に順次記録する(ステップS116)。   In step S114 following step S113, it is determined whether or not the release button 3 that has been half-pressed is fully pressed. If not, the process returns to step S106. When the release button 3 that has been half-pressed by the user is fully pressed, the determination in step S114 is YES. Accordingly, the process proceeds from step S114 to step S115, an exposure timer is set according to the photometric value and the exposure condition, and timer timing is started (step S115). Further, the blur amount in the vertical direction and the horizontal direction (Yaw / Pitch direction) of the digital camera 1 detected by the both acceleration sensors 16 and 17 is detected and sequentially recorded in the data memory 33 (step S116).

次に、手ブレ補正機能がONとなっているか否かを判断する(ステップS117)。前記ステップS112の処理が実行されて手ブレ補正機能がOFFとなっている場合には、ステップS118及びステップS119の処理を実行することなく、ステップS120に進む。前記ステップS113の処理が実行されることより、手ブレ補正機能がONとなっている場合には、前記ステップS116で検出したYaw/Pitch方向のブレ量から、Yaw/Pitch方向のブレ補正量を算出して、手ブレ補正設定データメモリ333に記憶させる(ステップS118)。そして、この算出して手ブレ補正設定データメモリ333に記憶したブレ補正量に応じて、Yaw/Pitch方向の手ブレ補正装置、つまり電動ミラーY方向駆動部59及び電動ミラーX方向駆動部60を駆動して、ブレ補正処理を実行する(ステップS119)。   Next, it is determined whether or not the camera shake correction function is ON (step S117). When the process of step S112 is executed and the camera shake correction function is OFF, the process proceeds to step S120 without executing the processes of step S118 and step S119. If the camera shake correction function is ON by executing the process of step S113, the shake correction amount in the Yaw / Pitch direction is calculated from the shake amount in the Yaw / Pitch direction detected in step S116. This is calculated and stored in the camera shake correction setting data memory 333 (step S118). Then, in accordance with the shake correction amount calculated and stored in the camera shake correction setting data memory 333, the camera shake correction device in the Yaw / Pitch direction, that is, the electric mirror Y direction driving unit 59 and the electric mirror X direction driving unit 60, Drive to execute the blur correction process (step S119).

図7(A)〜(C)は、本実施の形態における手ブレ検出時のミラー185の動作態様を示すものであり、図7(A)は手ブレが発生していない状態、同図(B)は手ブレが生じた状態、同図(C)は手ブレ補正を行った状態を示すものである。すなわち、図7(A)の状態から、同図(B)に示すように手ブレが生じ、その結果、光軸Pが+θ°ずれたP'となった際には、レンズ群19、絞り57、及び、シャッター58を介して撮像素子20に導かれるRもR'にずれ、Dの差だけブレが生じる。この場合、前記ステップS119での処理により、同図(C)に示すように、+θ°に応じて、ミラー185を−θ/2°だけ回転させることにより、手ブレを補正し、R"を撮像素子20に導くことができる。   FIGS. 7A to 7C show an operation mode of the mirror 185 at the time of camera shake detection in this embodiment, and FIG. 7A shows a state in which no camera shake occurs. B) shows a state in which camera shake has occurred, and FIG. 10C shows a state in which camera shake correction has been performed. That is, when the camera shake occurs as shown in FIG. 7B from the state of FIG. 7A, and as a result, the optical axis P becomes P ′ shifted by + θ °, the lens group 19, the diaphragm 57 and R guided to the image sensor 20 via the shutter 58 are also shifted to R ′, and blurring occurs by the difference of D. In this case, the processing in step S119 corrects camera shake by rotating the mirror 185 by −θ / 2 ° according to + θ °, as shown in FIG. It can be guided to the image sensor 20.

そして、前記ステップS103で設定された撮影条件に応じて露出/撮影動作を開始し(ステップS120)、このステップS120での処理により、シャッター58が開いて撮像素子20が露出状態となる。次に、前記露出タイマーにより計時している露出時間が終了となったか否か、つまり露出タイマーの残時間が「0」となったか否かを判断し(ステップS121)、露出時間が終了となってない場合には、ステップS116に戻って、このステップS116からの処理を繰り返し実行する。露出時間が終了したならば、露出/撮影動作を停止させてシャッター58を閉じるとともに、手ブレ検出(角速度センサ16、17、角速度検出部51、52、積分器53、54)、手ブレ補正装置(電動ミラーY方向駆動部59及び電動ミラーX方向駆動部60)を停止させる(ステップS122)   Then, the exposure / photographing operation is started according to the photographing condition set in step S103 (step S120), and the shutter 58 is opened by the processing in step S120, and the image sensor 20 is exposed. Next, it is determined whether or not the exposure time counted by the exposure timer has ended, that is, whether or not the remaining time of the exposure timer has become “0” (step S121), and the exposure time ends. If not, the process returns to step S116, and the process from step S116 is repeatedly executed. When the exposure time is over, the exposure / photographing operation is stopped and the shutter 58 is closed, as well as camera shake detection (angular velocity sensors 16, 17, angular velocity detectors 51, 52, integrators 53, 54), camera shake correction device. (Electric mirror Y direction driving unit 59 and electric mirror X direction driving unit 60) are stopped (step S122).

さらに、撮影画像を圧縮、符号化し、この圧縮、符号化した撮影画像を外部メモリ媒体39に記録するとともに(ステップS123)、撮影画像をレビュー表示する(ステップS124)。さらに、撮影モード、撮影条件、ユーザ毎にブレ量データを集計して評価値を更新する(ステップS125)。   Further, the captured image is compressed and encoded, and the compressed and encoded captured image is recorded in the external memory medium 39 (step S123), and the captured image is displayed for review (step S124). Further, the blur amount data is totaled for each photographing mode, photographing condition, and user, and the evaluation value is updated (step S125).

すなわち、今回の撮影がユーザAによるものであって、撮影モードとして「人物」が選択され、撮影条件としてEVシフト(露出補正):±0、ストロボ:オート、ホワイトバランス:オート、ISO感度:オート・・・等が設定されたとすると、ユーザの手ブレ実績データメモリ332において、図5に示した領域332Aに記録されているユーザAの評価値を、前記ステップS116で検出し順次記録したYaw/Pitch方向のブレ量、あるいはこのブレ量に基づく評価値に更新する。   That is, the current shooting is by user A, “person” is selected as the shooting mode, EV shift (exposure correction): ± 0, strobe: auto, white balance: auto, ISO sensitivity: auto as shooting conditions. ... Is set, the evaluation value of the user A recorded in the area 332A shown in FIG. 5 in the user's camera shake data memory 332 is detected in step S116 and sequentially recorded. The blur amount in the pitch direction or an evaluation value based on this blur amount is updated.

したがって、ユーザの手ブレ実績データメモリ332のデータは、当該ユーザが撮影を行う毎に更新され、この更新されるデータに基づきステップS111の判断が行われることとなる。これにより、ユーザの最新データに基づき、当該ユーザが当該撮影条件で撮影を行う際にブレ補正機能をONにするかOFFにするかを制御することができ、的確にブレ補正機能をON、OFF制御を行うことができる。   Therefore, the data in the camera shake result data memory 332 of the user is updated every time the user performs shooting, and the determination in step S111 is performed based on the updated data. Thus, based on the latest data of the user, it is possible to control whether the shake correction function is turned ON or OFF when the user performs shooting under the shooting conditions, and the shake correction function is accurately turned ON / OFF. Control can be performed.

なお、本実施の形態においては、ステップS125で評価値を更新するようにしたが、評価値やブレ量に基づきシーン別の撮影条件設定データメモリ331における撮影条件設定データを更新するようにしてもよい。つまり、ステップS116で検出記録した手ブレ量に応じて、撮影条件設定データメモリ331の撮影条件設定データを変更することにより、手ブレ量に応じた手ブレ補正効果が発生するような撮影条件で撮影を行うことができ、撮影条件によっても適切な手ブレ補正効果を得ることができる。   In this embodiment, the evaluation value is updated in step S125. However, the shooting condition setting data in the shooting condition setting data memory 331 for each scene may be updated based on the evaluation value and the blur amount. Good. In other words, by changing the shooting condition setting data in the shooting condition setting data memory 331 according to the camera shake amount detected and recorded in step S116, the shooting condition is such that a camera shake correction effect corresponding to the camera shake amount occurs. Shooting can be performed, and an appropriate camera shake correction effect can be obtained depending on shooting conditions.

図8は、前記角速度センサ16、17の具体的構成例を示す図である。本例は、セラミックバイモルフ振動子を用いた圧電式の振動ジャイロ81であり、支持ピン(兼リード線)81a、圧電素子82を有している。この振動ジャイロ81は、HPF82、LPF83等に接続されて回路構成される。振動ジャイロ81では、各図(C)に示すような回路によって、回転によって生ずるコリオリの力を圧電素子で電圧信号に変換し、角速度に比例した電圧を検出できる。手ブレ検出に用いる場合には、動かない地面上に立って撮影する場合、一般に3〜10Hz程度の手ブレが多いが、歩きながら撮影する場合にはやや高い10〜18Hz程度、列車や車両に乗って撮影する場合には20〜25Hz程度のブレも発生するので、0.5〜25Hz程度のブレの発生に対応できるように、応答性:50Hz、検出範囲±360deg/sec程度の超小型センサが利用できる。   FIG. 8 is a diagram showing a specific configuration example of the angular velocity sensors 16 and 17. In this example, a piezoelectric vibration gyro 81 using a ceramic bimorph vibrator has a support pin (also a lead wire) 81 a and a piezoelectric element 82. The vibration gyro 81 is connected to the HPF 82, the LPF 83, and the like to constitute a circuit. In the vibration gyro 81, the Coriolis force generated by the rotation is converted into a voltage signal by a piezoelectric element by a circuit as shown in each figure (C), and a voltage proportional to the angular velocity can be detected. When used for camera shake detection, when shooting while standing on a stationary ground, there are generally many camera shakes of about 3 to 10 Hz, but when shooting while walking, it is slightly higher, about 10 to 18 Hz. When shooting while riding, blurring of about 20 to 25 Hz also occurs. Therefore, an ultra-compact sensor with a response of 50 Hz and a detection range of about ± 360 deg / sec so as to cope with the occurrence of blurring of about 0.5 to 25 Hz. Is available.

また、周囲温度の変化による静止時出力の温度ドリフトを除去するために、センサ出力に(カットオフ周波数fc=0.3〜0.5Hz程度の)HPF(ハイパスフィルタ)を接続してDC成分を除去し、またセンサ内部の振動ノイズ(20〜25Hz付近等)を除去するために、応答周波数以上の高周波成分を除去する(カットオフ周波数fc=1kHz〜4kHz程度の)LPF(ローパスフィルタ)を接続する。手ブレによる振動をジャイロにより角速度信号として検出し、マイコン回路などで積分演算して角度変位に変換し、角速度及び角度変位に基づいて手ブレ補正量を決定することができる。   In addition, in order to remove the temperature drift of the stationary output due to the change in ambient temperature, an HPF (high pass filter) (with a cutoff frequency fc = 0.3 to 0.5 Hz) is connected to the sensor output, and the DC component is An LPF (low-pass filter) that removes high-frequency components above the response frequency (with a cut-off frequency of about fc = 1 kHz to 4 kHz) is connected to remove the vibration noise inside the sensor (around 20 to 25 Hz). To do. Vibration due to camera shake can be detected as an angular velocity signal by a gyro, integrated and calculated by a microcomputer circuit or the like, converted into angular displacement, and a camera shake correction amount can be determined based on the angular velocity and angular displacement.

図9は、手ブレ量の検出回路の具体的構成例を示す図である。図に示すように、Yaw方向角速度センサ(振動ジャイロ)101、Pitch方向角速度センサ(振動ジャイロ)102には、駆動部103が接続されているとともに、センサ検出回路部104及びデジタル信号処理部105を介して制御部106に接続されている。制御部106は、入出力インタフェース1061、CPU1062等を備え、データメモリ109、プログラムメモリ108、時計回路109が接続されており、データメモリ109にはユーザ別の手ブレ実績データメモリ1071が設けられている。前記センサ検出部104は、各角速度センサ101、102毎に設けられたHPF、差動アンプ、LPF、A/D変換器D構成され、前記デジタル信号処理部105は、各角速度センサ101、102毎に設けられたHPF、位相補償回路、積分回路で構成されている。   FIG. 9 is a diagram illustrating a specific configuration example of a camera shake amount detection circuit. As shown in the figure, a drive unit 103 is connected to a Yaw direction angular velocity sensor (vibration gyro) 101 and a Pitch direction angular velocity sensor (vibration gyro) 102, and a sensor detection circuit unit 104 and a digital signal processing unit 105 are provided. Via the control unit 106. The control unit 106 includes an input / output interface 1061, a CPU 1062, and the like, and is connected to a data memory 109, a program memory 108, and a clock circuit 109. The data memory 109 is provided with a camera shake result data memory 1071 for each user. Yes. The sensor detection unit 104 includes an HPF, a differential amplifier, an LPF, and an A / D converter D provided for each angular velocity sensor 101 and 102, and the digital signal processing unit 105 is configured for each angular velocity sensor 101 and 102. The HPF is provided with a phase compensation circuit and an integration circuit.

かかる手ブレ量の検出回路を用いることにより、図10(a)に例示する手ブレの振動波形や、同図(b−1)に例示する手ブレの周波数特性(未習熟者、静止撮影時)、(b−2)に例示する手ブレの周波数特性(未習熟者、移動撮影時)をユーザ別の手ブレ実績データメモリ1071に記録することができる。   By using such a camera shake amount detection circuit, the vibration waveform of camera shake illustrated in FIG. 10A and the frequency characteristics of camera shake illustrated in FIG. ) And (b-2), the frequency characteristics of camera shake (unexperienced person, during moving shooting) can be recorded in the camera shake result data memory 1071 for each user.

図11(A)〜(C)は、ブレ補正装置の他の構成例であって、電磁ローレンツ力によるMEMS回動ミラー式のブレ補正装置を示す図である。図11(A)に図示するように、シリコン基盤などのMEMS基盤201には、外側回転台202と内側回転台203とが各々トーションバー(ねじりバネ)204を介して架装されており、前記内側回転台203にミラー205装着されている。また、このMEMS基盤201は、図11(B)、及び、この図11(B)における線A―A'における断面図である図11(C)に図示するように、前記外側回転台202に取り付けられ、この外側回転台202の四周部には、各々磁石206が配置され、プリント基板207、ヨーク208が設けられているとともに、前記プリント基板207に接続されたコネクタ210が設けられている。   FIGS. 11A to 11C are diagrams illustrating another example of the configuration of the shake correction device, which is a MEMS rotation mirror type shake correction device using an electromagnetic Lorentz force. As shown in FIG. 11A, an outer turntable 202 and an inner turntable 203 are respectively mounted on a MEMS substrate 201 such as a silicon substrate via a torsion bar (torsion spring) 204. A mirror 205 is mounted on the inner turntable 203. Further, the MEMS base 201 is mounted on the outer turntable 202 as shown in FIG. 11B and FIG. 11C which is a cross-sectional view taken along the line AA ′ in FIG. 11B. A magnet 206 is arranged on each of the four circumferences of the outer turntable 202, a printed circuit board 207 and a yoke 208 are provided, and a connector 210 connected to the printed circuit board 207 is provided.

したがって、係るブレ補正装置によれば、前記図3に示した回転式ミラーよりも薄型化が可能であることから、小型のデジタルカメラにも容易に実装することができる。   Therefore, according to the shake correction apparatus, it is possible to make it thinner than the rotary mirror shown in FIG. 3, and therefore it can be easily mounted on a small digital camera.

(第2の実施の形態)
図12は、本発明の他の実施の形態における処理手順を示すフローチャートである。この実施の形態は、撮影後に画像を印刷する印刷用紙サイズや表示部14の画面大きさなど、再生出力時の画像サイズに応じて、許容ブレ量を算出し、それに基づいてブレ軽減撮影を行うようにするものである。
(Second Embodiment)
FIG. 12 is a flowchart showing a processing procedure in another embodiment of the present invention. In this embodiment, an allowable blur amount is calculated according to the image size at the time of reproduction output, such as the size of the printing paper on which an image is printed after shooting and the screen size of the display unit 14, and blur reduction shooting is performed based on the calculated amount. It is what you want to do.

制御部25はプログラムメモリ32に格納されているプログラムに基づき、このフローチャートに従って処理を実行する。先ず、露出設定時間Tなど、撮影条件を設定するとともに(ステップS201)、ユーザによる操作部23での操作に応じて印刷用紙のサイズを選択する(ステップS202)。さらに、ユーザによる操作部23での操作により、「印刷した画像を当該印刷用紙の対角距離から観賞する」が選択されたか否かを判断する(ステップS203)。これが選択された場合には、下記例示式を用いて画像サイズYに応じて、許容ボケδを設定する(ステップS204)。
(例)許容ボケδ=(画像サイズY/用紙サイズSp)×用紙サイズSp×tan(3′)=Y×tan(3′)
The control unit 25 executes processing according to this flowchart based on the program stored in the program memory 32. First, shooting conditions such as the exposure setting time T are set (step S201), and the size of the printing paper is selected according to the operation of the operation unit 23 by the user (step S202). Further, it is determined whether or not “view a printed image from the diagonal distance of the printing paper” is selected by an operation on the operation unit 23 by the user (step S203). If this is selected, the allowable blur δ is set according to the image size Y using the following exemplary formula (step S204).
(Example) Allowable blur δ = (image size Y / paper size Sp) × paper size Sp × tan (3 ′) = Y × tan (3 ′)

「印刷した画像を当該印刷用紙の対角距離から観賞する」が選択されず、「一定の明視距離から観賞する」が選択された場合には、下記例示式を用いて印刷用紙サイズSpに応じて許容ボケδを設定する(ステップS205)。
(例)許容ボケδ=(Y/Sp)×250(mm)×tan(3′)
When “Appreciate the printed image from the diagonal distance of the printing paper” is not selected and “Appreciate from a certain clear viewing distance” is selected, the printing paper size Sp is set using the following exemplary formula. Accordingly, the allowable blur δ is set (step S205).
(Example) Allowable blur δ = (Y / Sp) × 250 (mm) × tan (3 ′)

次に、測光処理、ズーム処理、AF処理を実行し(ステップS206)、レンズ焦点距離情報(f)読み込む(ステップS207)。そして、下記例示式を用い、許容ボケ量δと、レンズ焦点距離f、及び、設定露出時間T(秒)に応じて、許容ブレ量を設定する(ステップS208)。
(例)許容ブレ量(角度)θB=2×tan−1(δ/2f)
許容ブレ量(角速度)ωB=θB/T
Next, photometric processing, zoom processing, and AF processing are executed (step S206), and lens focal length information (f) is read (step S207). Then, using the following exemplary formula, an allowable blur amount is set according to the allowable blur amount δ, the lens focal length f, and the set exposure time T (seconds) (step S208).
(Example) Allowable blurring amount (angle) θB = 2 × tan−1 (δ / 2f)
Allowable blurring amount (angular velocity) ωB = θB / T

このように、前記許容ブレ量は、例えは、撮像サイズ(対角)Yに応じて、若しくは、査撮像サイズYと印刷用紙への引き伸ばし倍率とに応じて、許容ボケ(許容錯乱円径)δを求め、許容ボケδと撮影レンズの焦点距離fに応じて、許容ボケδに相当する画角を、許容できるブレ角度θとして求める。   In this way, the allowable blur amount is, for example, allowable blur (permissible circle of confusion) according to the imaging size (diagonal) Y or according to the inspection imaging size Y and the enlargement magnification to the printing paper. δ is obtained, and an angle of view corresponding to the allowable blur δ is determined as an allowable blur angle θ according to the allowable blur δ and the focal length f of the photographing lens.

すなわち、撮影画角θは、焦点距離f(mm)と画像サイズ(対角)Y(mm)とから、画角θ=2×tan−1(Y/2f)、
ブレとボケでは見え方や印象は異なるが、同程度の寸法で許容できると見なした場合には、許容ブレ角度(θB)/画角(θ)=許容ボケ(δ)/画像サイズ(Y)と、略比例すると考えることができ、
許容ブレ角度θB=2×tan−1(δ/2f)
許容ブレ角速度ωB=許容ブレ角度θB/露出時間T=2×tan−1(δ/2f)/T、
と設定できる。
That is, the shooting angle of view θ is calculated from the focal length f (mm) and the image size (diagonal) Y (mm), and the angle of view θ = 2 × tan−1 (Y / 2f),
Although the appearance and impression are different between blur and blur, if it is considered acceptable with the same size, allowable blur angle (θB) / angle of view (θ) = allowable blur (δ) / image size (Y )
Allowable blur angle θB = 2 × tan−1 (δ / 2f)
Permissible blur angular velocity ωB = allowable blur angle θB / exposure time T = 2 × tan−1 (δ / 2f) / T,
Can be set.

そして、予めデータメモリ33に記憶されている当該ユーザのブレ量(角度θ、角速度ω)を読み込み、許容ブレ量(角度θB、角速度ωB)と比較して(ステップS209)、θ≧θB、又はω≧ωBであるか否かを判断する(ステップS210)。この判断の結果、θ≧θB、又はω≧ωBであり、当該ユーザのブレ量が許容ブレ以上である場合には、手ブレ補正が必要と判断し、手ブレ補正をONにする(ステップS112)。また、θ≧θB、又はω≧ωBではなく、当該ユーザのブレ量が許容ブレ未満である場合には、手ブレ補正が不要と判断し、手ブレ補正をOFFにする(ステップS211)。   Then, the blur amount (angle θ, angular velocity ω) of the user stored in advance in the data memory 33 is read and compared with the allowable blur amount (angle θB, angular velocity ωB) (step S209), θ ≧ θB, or It is determined whether or not ω ≧ ωB (step S210). As a result of this determination, if θ ≧ θB or ω ≧ ωB, and the amount of shake of the user is greater than or equal to the allowable shake, it is determined that camera shake correction is necessary, and camera shake correction is turned on (step S112). ). If θ ≧ θB or ω ≧ ωB is not satisfied and the amount of shake of the user is less than the allowable shake, it is determined that camera shake correction is unnecessary, and camera shake correction is turned off (step S211).

つまり、本実施の形態においては、当該ユーザの手ブレ量が許容ブレ量以上であるか未満であるかにより、手ブレ補正をON・OFFすることから、より精度よく手ブレ撮影を防止しつつ、無用な手ブレ補正機能の動作を防止することができる。   In other words, in the present embodiment, the camera shake correction is turned ON / OFF depending on whether the camera shake amount of the user is greater than or less than the allowable shake amount, thereby preventing camera shake shooting more accurately. Unnecessary camera shake correction function can be prevented from operating.

(第3の実施の形態)   (Third embodiment)

なお、図12に示したフローチャートにおいては省略したが、この実施の形態においても、前述した第1の実施の形態と同様に、S114〜S125の処理が実行され、撮影画像が圧縮符号化されて、外部メモリ媒体39に記憶されることとなる。したがって、第1及び第2の実施の形態においては、撮影された画像がブレ補正処理されることなく外部メモリ媒体39に記憶されるが、この第3の実施の形態は撮影された画像をブレ補正処理してから外部メモリ媒体39に記録するものである。   Although omitted in the flowchart shown in FIG. 12, in this embodiment as well, the processing of S114 to S125 is executed and the captured image is compressed and encoded as in the first embodiment described above. It is stored in the external memory medium 39. Therefore, in the first and second embodiments, the photographed image is stored in the external memory medium 39 without being subjected to the blur correction process. In the third embodiment, the photographed image is blurred. The correction processing is performed and then recorded in the external memory medium 39.

図13は、本実施の形態においてメモリ媒体33に撮影された画像を記録する直前実効されるブレ補正処理の処理内容を示すフローチャートである。まず、概略について説明すると、撮影した画像に対し、フーリエ変換、離散フーリエ変換(DFT)を施し(ステップS601)、劣化画像のフーリエ変換画像を生成する(ステップS602)。また、PSF法、ゼロクロス法、又はHough変換法、逆フィルター法等で、p(u,v)又はPSFを推定し(ステップS603)、直線ブレの評価値、ブレ方向角度(θ)、ブレ距離(L)を算出する(ステップS604)。また、直線ブレ(θ方向に周期1/Lでゼロ交差)をP(u,v)=sin(πfL)/πfL、(f=ucosθ+vsinθ)により算出し(ステップS605)、I(u,v)=G(u,v)/P(u,v)を演算し(ステップS609)、i(x,y)=Σu=0M−1Σv=0n−1I(u,v)W1−uxW2−vy(ただし、W1=exp(−j2π/M)、W2=exp(−j2π/N))により逆フーリエ変換する(ステップS610)。   FIG. 13 is a flowchart showing the processing content of the blur correction processing that is performed immediately before recording a photographed image in the memory medium 33 in the present embodiment. First, the outline will be described. The captured image is subjected to Fourier transform and discrete Fourier transform (DFT) (step S601), and a Fourier transform image of a degraded image is generated (step S602). Also, p (u, v) or PSF is estimated by PSF method, zero cross method, Hough transform method, inverse filter method, etc. (step S603), linear blur evaluation value, blur direction angle (θ), blur distance. (L) is calculated (step S604). Further, straight blurring (zero crossing in the θ direction with a period of 1 / L) is calculated by P (u, v) = sin (πfL) / πfL, (f = ucos θ + vsin θ) (step S605), and I (u, v) = G (u, v) / P (u, v) is calculated (step S609), and i (x, y) = Σu = 0M-1Σv = 0n-1I (u, v) W1-uxW2-by (however, , W1 = exp (−j2π / M), W2 = exp (−j2π / N)) (step S610).

あるいは、同様にPSF法、ゼロクロス法、又はHough変換法、逆フィルター法等で、p(u,v)又はPSFを推定し(ステップS606)、直線ボケの評価値、焦点の広がり半径(r)の計算を行う(ステップS607)。また、焦点ボケ(周期1.01π/rで、同心円状のゼロ交差)をP(u,v)=2・J1(r−R)/r・R、(J1=1時の第1種ベッセル関数)により算出し(ステップS608)、前記ステップS609及びS610の処理を実行する。   Alternatively, p (u, v) or PSF is similarly estimated by the PSF method, zero-cross method, Hough transform method, inverse filter method, or the like (step S606), the evaluation value of the linear blur, the radius of the focus spread (r) Is calculated (step S607). Further, the defocus (the concentric zero crossing with a cycle of 1.01π / r) is P (u, v) = 2 · J1 (r−R) / r · R, (the first kind Bessel when J1 = 1). Function) (step S608), and the processes of steps S609 and S610 are executed.

すなわち、本実施の形態は、ブレが生じた画像、若しくは焦点ボケが生じた画像など劣化画像を、フーリエ変換などにより周波数領域の画像信号に変換した後、ブレやボケを生じさせたPSF(焦点分布関数、点広がり関数)を推定し、推定されたPSF関数に基づいて、周波数領域の劣化画像に対して、推定されたPSF関数を逆関数などで演算し、得られた周波数領域の画像を逆フーリエ変換などにより空間領域の画像信号に戻すことにより、ブレ画像やボケ画像の補正処理や画像の復元を行うものである。   That is, in the present embodiment, after a deteriorated image such as an image with blurring or an image with defocusing is converted into an image signal in the frequency domain by Fourier transform or the like, a PSF (focal point) with blurring or defocusing is generated. Distribution function, point spread function), and based on the estimated PSF function, the estimated PSF function is calculated with an inverse function on the degraded image in the frequency domain, and the obtained frequency domain image is obtained. By returning to the image signal of the spatial domain by inverse Fourier transform or the like, the blurring image or the blurred image is corrected and the image is restored.

一般に、PSF法による画像復元では、ブレやボケのない本来の画像i(x,y)が、ブレやボケを生じさせる劣化成分p(x,y)により劣化した画像を劣化画像と見なして、
g(x、y)=p(x,y)*i(x,y) (*はコンボリューション(畳み込み積分)演算である)とすると、
p(x,y)をPSF(Point Spread Function、点像分布関数)や、LSF(Line Spread Function、線分布関数)などとして求めて、劣化させたブレやボケの劣化成分p(x,y)を推定し、p(x,y)がうまく推定できれば、本来の画像i(x,y)をデコンボリューション(逆畳み込み積分)演算により画像復元できる方法である。
In general, in the image restoration by the PSF method, an original image i (x, y) free from blurring and blurring is regarded as a degraded image by degrading the degradation component p (x, y) that causes blurring and blurring.
If g (x, y) = p (x, y) * i (x, y) (* is a convolution operation),
p (x, y) is obtained as PSF (Point Spread Function), LSF (Line Spread Function), etc. If p (x, y) can be estimated well, the original image i (x, y) can be restored by deconvolution (deconvolution integration).

つまり、撮影画像など劣化した画像g(x、y)を、フーリエ変換などで周波数軸に変換し、G[u,v]を求めると、
G[u,v]=P[u,v]・I[u,v](コンボリューションは、周波数軸上では、フーリエ変換同士のかけ算となる)であるので、その劣化成分P[u,v]を周波数領域で推定し、P[u,v]が推定できれば、逆フィルタとして、1/P[u,v]を計算して求め、G[u,v]に乗算すれば、以下のように、本来の画像i(x,y)を演算により復元できる。
I[u,v]=G[u,v]/P[u,v](フーリエ変換同士の割り算)
i(x,y)=逆フーリエ変換{I[u,v]}
=Σu=0M−1Σv=0n−1・I(u,v)W1uxW2vy(ただし、W1=exp(−j2π/M)、W2=exp(−j2π/N))、
That is, when a deteriorated image g (x, y) such as a photographed image is converted into a frequency axis by Fourier transform or the like, and G [u, v] is obtained,
Since G [u, v] = P [u, v] · I [u, v] (convolution is multiplication of Fourier transforms on the frequency axis), the degradation component P [u, v ] In the frequency domain and if P [u, v] can be estimated, 1 / P [u, v] is calculated and obtained as an inverse filter, and G [u, v] is multiplied as follows. In addition, the original image i (x, y) can be restored by calculation.
I [u, v] = G [u, v] / P [u, v] (division between Fourier transforms)
i (x, y) = inverse Fourier transform {I [u, v]}
= Σu = 0M−1Σv = 0n−1 · I (u, v) W1uxW2vy (W1 = exp (−j2π / M), W2 = exp (−j2π / N)),

ちなみに、画像(x,y)のフーリエ変換F[u,v]は、離散フーリエ変換(DFT)では、
F[u,v]=(1/MN)Σx=0M−1Σv=0N−1f(x,y)W1uxW2vy
(ただし、W1=exp(−j2π/M)、W2=exp(−j2π/N))
Incidentally, the Fourier transform F [u, v] of the image (x, y) is the discrete Fourier transform (DFT).
F [u, v] = (1 / MN) Σx = 0M−1Σv = 0N−1f (x, y) W1uxW2vy
(W1 = exp (−j2π / M), W2 = exp (−j2π / N))

離散コサイン変換(DCT)では、
F[u,v]=(4√MN)C(u)C(v)・ΣxΣvf(x,y)・cos{(2x+ 1)uπ/2M}cos{(2y+1)uπ/2N}
ただし、C(u)、C(v)=1√2(u,v=0)、C(u)、C(v)=1(u,v≠0)
等で計算できるが、高速フーリエ変換(FFT)用バタフライ型演算など、各種の高速計算アルゴリズムが開発されているので、それらを利用してもよい。
In the discrete cosine transform (DCT),
F [u, v] = (4√MN) C (u) C (v) ・ ΣxΣvf (x, y) · cos {(2x + 1) uπ / 2M} cos {(2y + 1) uπ / 2N}
However, C (u), C (v) = 1√2 (u, v = 0), C (u), C (v) = 1 (u, v ≠ 0)
However, various high-speed calculation algorithms such as butterfly type computation for fast Fourier transform (FFT) have been developed, and these may be used.

以下では、このPSF法におけるPSFやP[u,v]の推定方法を、直線ブレ量の推定や焦点や焦点ボケ量の推定に用いて、推定された直線ブレ量の推定や焦点ボケ量に基づいて、「直線ブレ」画像や「焦点ボケ」画像を復元する例で説明する。一般に、ブレやボケのない画像f(x,y)をフーリエ変換したG[u,v]の振幅の分布は、前記ステップS602における(b)のようにな直線ブレのパターンとなり、中央付近の高周波成分がブレ角度に従って、数本の細長い傾斜した楕円状に抜けたり歪んだりしたパターンが現れる。   In the following, the estimation method of PSF and P [u, v] in this PSF method is used for estimation of linear blur amount and estimation of focus and defocus amount. Based on this, an example of restoring a “straight line blur” image and a “focus blur” image will be described. In general, the amplitude distribution of G [u, v] obtained by Fourier transforming an image f (x, y) without blurring or blurring becomes a straight blurring pattern as shown in (b) in step S602, and is near the center. Depending on the blur angle, several high-frequency components appear in the form of several elongated slanted ellipses that are distorted or distorted.

また、焦点ボケした劣化画像g(x、y)をフーリエ変換したG[u,v]は、(d)のような焦点ボケパターンとなり、中央部の高周波成分が同心円状に抜けたり歪んだりしたパターンとなる。同様に、直線ブレと焦点ボケが共に生ずると、(c)のような、両方の特徴を合わせ持ったパターンとなる。   Further, G [u, v] obtained by Fourier transform of the defocused degraded image g (x, y) becomes a defocused pattern as shown in (d), and the high-frequency component in the center part is missing or distorted in a concentric manner. It becomes a pattern. Similarly, when both straight blurring and out-of-focus blur occur, a pattern having both features is obtained as shown in FIG.

(PSF法によるブレ方向とブレ距離の推定)
図14は、従来のPSF法での、ブレ方向(θ)とブレ距離(L)、焦点ボケの広がり半径(r)の推定方法であり、ブレ方向(θ)は、G[u,v]の縦/横の相対比(R)から算出し、また、ブレ距離(L)若しくは焦点広がり半径(r)は、復元画像iL、iL+1を順次計算して求め、その相関値C(L)から逆算するか、相関値C(L)が所定値以上の相関度に飽和するまで繰り返して求める。しかし、この方法では、計算に時間がかかるので、次のような多階調Hough換算で求める方法もある。
(Estimation of blur direction and blur distance by PSF method)
FIG. 14 shows an estimation method of the blur direction (θ), blur distance (L), and spread radius (r) of the focal blur in the conventional PSF method. The blur direction (θ) is G [u, v]. The blur distance (L) or the focal spread radius (r) is obtained by sequentially calculating the restored images iL and iL + 1 and calculated from the correlation value C (L). The calculation is repeated until the correlation value C (L) is saturated to a degree of correlation equal to or greater than a predetermined value. However, since this method takes time to calculate, there is also a method of obtaining in the following multi-gradation Hough conversion.

図15は、PSF法と多階調Hough換算によるブレ方向(θ)、ブレ距離(L)若しくは、焦点ボケの広がり半径(r)の推定方法を示す図である。直線ブレなどの劣化画像G[u,v]のフリーエ・スペクトルの中央部の円内を、(複数点を通る直線の推定や検出などに広く用いられる)Hough換算法により、θ−ρ空間上の多階調の二次元画像に変換し、H(θ,ρ)値の角度θ毎に切り出したHθ(ρ)波形を比較して、
そのエントロピー E(θ)=ΣρPlog2(1/P)(0°≦θ<180°)を求め、
E(θ)が最小となる角度θが、直線ブレ方向(θ)と推定できる。
(ただし、P=(θ,ρ)/HSUM(θ)、HSUM(θ)は円内画素値の合計で、HSUM(θ=Σ(−R≦0≦R)H(θ,ρ)である。)
また、ぶれた方向(θ)のHθ(ρ)波形の極小点の周期(T1)を求めると、ブレ距離(L)=1/TLが求まる。
FIG. 15 is a diagram illustrating a method of estimating the blur direction (θ), the blur distance (L), or the spread radius (r) of the focal blur by PSF method and multi-gradation Hough conversion. A circle in the center of the free spectrum of the degraded image G [u, v] such as straight line blurring is expressed in the θ-ρ space by the Hough conversion method (used widely for estimation and detection of straight lines passing through a plurality of points). And a Hθ (ρ) waveform cut out for each angle θ of the H (θ, ρ) value.
The entropy E (θ) = ΣρPlog2 (1 / P) (0 ° ≦ θ <180 °) is obtained,
The angle θ at which E (θ) is minimized can be estimated as the linear blur direction (θ).
(However, P = (θ, ρ) / HSUM (θ), HSUM (θ) is the sum of the in-circle pixel values, and is HSUM (θ = Σ (−R ≦ 0 ≦ R) H (θ, ρ)). .)
Further, when the period (T1) of the minimum point of the Hθ (ρ) waveform in the blur direction (θ) is obtained, the blur distance (L) = 1 / TL is obtained.

また、H(θ,ρ)をθ軸方向に0°〜179°まで平均化したC(ρ)波形、
C(ρ)=ΣρHθ(ρ)/180(0°≦θ<180°)
を作成し、C(θ)波形の極小点の周期(Tr)から、焦点ボケの広がりの半径(r)は、
半径(r)=1.01×π×Trより求まる。
MN)C(u)C(v)・ΣxΣvf(x,y)・cos{(2x+1)uπ/2M}cos{(2y+1)uπ/2N}
Further, a C (ρ) waveform obtained by averaging H (θ, ρ) from 0 ° to 179 ° in the θ-axis direction,
C (ρ) = ΣρHθ (ρ) / 180 (0 ° ≦ θ <180 °)
From the period (Tr) of the minimum point of the C (θ) waveform, the radius (r) of the focal blur spread is
Radius (r) = 1.01 × π × Tr
MN) C (u) C (v) .ΣxΣvf (x, y) .cos {(2x + 1) uπ / 2M} cos {(2y + 1) uπ / 2N}

(Hough換算)
ちなみに、Hough換算(ハフ変換、ヒュー変換とも呼ぶ)では、(ρ=x/cosθ+y・sinθ)の変換式により、一般に二次元座標x−y平面上の点は、θ−ρ明面上の曲線に、また、x−y平面上の直線は、θ−ρ明面上の点に、それぞれ変換、逆変換できる。例えば、x−y平面上の点A,B,Cを通る直線Lを求めたい場合には、点A,B,Cを変換した、θ−ρ平面上の曲線A′,B′,C′が交差する交点P(θ,ρ)を求めると、その点P(θ1,ρ1)を、x−y平面上に逆変換し、ゼロ点から下ろした垂線の長さがρLで、垂線の角度がθLとなる直線Lが、求める直線である。
(Hough conversion)
By the way, in Hough conversion (also called Hough conversion or Hugh conversion), a point on a two-dimensional coordinate xy plane is generally a curve on a θ-ρ bright surface by a conversion formula of (ρ = x / cos θ + y · sin θ). In addition, a straight line on the xy plane can be converted and inversely converted to a point on the θ-ρ bright surface, respectively. For example, when it is desired to obtain a straight line L passing through points A, B, and C on the xy plane, curves A ′, B ′, and C ′ on the θ-ρ plane obtained by converting the points A, B, and C are used. When the intersection point P (θ, ρ) intersecting is obtained, the point P (θ1, ρ1) is inversely transformed on the xy plane, the length of the perpendicular line dropped from the zero point is ρL, and the angle of the perpendicular line Is a straight line to be obtained.

Hough換算は、このように二次元画像の中から直線領域を抽出する等、画像処理分野では広く用いられているので、詳細は省略するが、前述の多階調Hough換算では、このHough換算の配列H(θ,ρ)の明度(階調を持つ輝度や濃度)を、H(θ,ρ)=f(x,y)として、多階調の二次元画像として定義し、前述のような複数曲線の交点を求める場合には、明度(階調値)を加算して、階調値が最も大きくなる点を交点として、近似計算により迅速に求めることができる。   The Hough conversion is widely used in the field of image processing, such as extracting a straight line region from a two-dimensional image in this way, so the details are omitted, but in the above multi-gradation Hough conversion, this Hough conversion The brightness (brightness or density having gradation) of the array H (θ, ρ) is defined as a multi-gradation two-dimensional image with H (θ, ρ) = f (x, y), as described above. When calculating the intersection of a plurality of curves, brightness (gradation value) is added, and the point at which the gradation value becomes the maximum can be used as an intersection to quickly determine by approximation calculation.

前述のように、ゼロクロス法、あるいは、多階調Hough換算等により、劣化画像g(x、y)を周波数軸上にフーリエ変換したG[u,v]から、直線ブレ画像の方向(角度θ)と直線ブレの距離(画素数L)、あるいは、焦点ボケ画像の焦点広がり半径(画素数r)を、前記のような演算により推定し、これらに基づいて、画像処理により、ブレを補正したり、ブレの少ない画像を復元したりすることができる。   As described above, the direction (angle θ) of the linear blur image is obtained from G [u, v] obtained by Fourier transforming the degraded image g (x, y) on the frequency axis by the zero cross method or multi-gradation Hough conversion. ) And the straight blurring distance (number of pixels L), or the focal spread radius (number of pixels r) of the defocused image is estimated by the above-described calculation, and based on these, the blurring is corrected by image processing. Or restore an image with less blur.

なお、データメモリ33に記録されるブレ情報としては、手ブレ量や像ブレの実績データに限らず、ブレの頻度、方向、振動波形、波形の特徴、周波数成分、フーリエ変換係数など検出された手ブレの特徴データ、又は像ブレの頻度、画像の動きベクトル、解像度、コントラスト、ヒストグラム、画像の周波数特性、フーリエ変換やDCT変換など、撮影された画像の評価データなどを記録するようにしてもよい。   Note that the blur information recorded in the data memory 33 is not limited to the amount of camera shake and the actual image blur data, but the frequency, direction, vibration waveform, waveform characteristics, frequency component, Fourier transform coefficient, etc. of the blur are detected. It is also possible to record camera shake feature data or image blur frequency, image motion vector, resolution, contrast, histogram, frequency characteristics of the image, Fourier transform, DCT transform, etc. Good.

また、手ブレ量や像ブレ量が所定の閾値を超えたときの撮影条件(被写輝度、露出時間、焦点距離、撮影距離、ストロボ条件)や、その累積点数などを記録して、制御を簡素化したり、記録データ量を圧縮するようにしてもよい。   Also, record the shooting conditions (shooting brightness, exposure time, focal length, shooting distance, strobe conditions) when the amount of camera shake or image blur exceeds a predetermined threshold, and the cumulative score. It may be simplified or the amount of recorded data may be compressed.

又は、当該個人ユーザにおける、手ブレ量や像ブレ量の記録データに基づいて、その経年経時変化や習熟度、撮影条件毎のデータなどから、時期の所定の撮影条件における手ブレ量や像ブレ量などを予測演算して、予測した手ブレ量や像ブレ量に応じて、補正モードや補正パラメータを自動設定するようにしてもよい。   Alternatively, based on the recorded data of the camera shake amount and image shake amount of the individual user, the camera shake amount and image shake under the predetermined shooting conditions of the time are determined from the secular change, proficiency level, and data for each shooting condition. An amount or the like may be predicted and calculated, and the correction mode and the correction parameter may be automatically set according to the predicted camera shake amount and image blur amount.

また、図4に示したように、デジタルカメラ1は、通信制御ブロック36、無線LAN等送受信部41を有している。したがって、これらを利用しデジタルカメラ1がネットワークを介しメーカーのサーバーに接続された場合には、カメラ内メモリから個人ユーザ別に、手ブレや像ブレの実績データ(や画像特徴データ、撮影条件データ、得点データ)などをサーバーに自動的に送信し、サーバーでは、個人別又は撮影条件別に、前記の手ブレ実績データをデータベースに集計記録し、個人ユーザ別又は撮影条件別に、ブレ特性を管理、分析し、多数ユーザからの集計分析データに基づいて、カメラの制御プログラムや補正パラメータを更新して書き込めるように構成してもよい。   As shown in FIG. 4, the digital camera 1 includes a communication control block 36 and a transmission / reception unit 41 such as a wireless LAN. Therefore, when the digital camera 1 is connected to a manufacturer's server via a network using these, camera shake or image blur performance data (or image feature data, shooting condition data, (Score data) is automatically transmitted to the server, and the server records and records the above-mentioned camera shake performance data in a database for each individual or for each shooting condition, and manages and analyzes the blur characteristics for each individual user or for each shooting condition. The camera control program and correction parameters may be updated and written on the basis of aggregate analysis data from a large number of users.

また、実施の形態において、図1に示した外部構造のデジタルカメラ1に本発明を適用するようにしたが、これに限ることなく、静止画及び動画撮影機能を備えた携帯電話、大型のデジタルカメラ、本体と蓋体とからなり一方にLCDファインダーを備え他方にモニターを備える二つ折りのデジタルカメラ、ユーザの操作により当該ユーザ自身を撮影可能なデジタルカメラ、隣接した二つの画面を有し両画面に連続する単一のスルー画像を表示させるデジタルカメラ等、他の構造からなる撮像装置、あるいは撮像機能を備えた携帯電話等の各種機器に本発明を適用することができる。   In the embodiment, the present invention is applied to the digital camera 1 having the external structure shown in FIG. 1. However, the present invention is not limited to this, and is not limited to this. A camera, a main body and a lid, one side with an LCD finder and the other with a monitor, a two-fold digital camera, a digital camera that can take a picture of the user by user operation, two screens with two adjacent screens The present invention can be applied to various devices such as an imaging device having another structure, such as a digital camera that displays a single continuous image, or a mobile phone having an imaging function.

(A)は本発明の各実施の形態に共通するデジタルカメラの正面図、(B)は背面図である。(A) is a front view of a digital camera common to each embodiment of the present invention, and (B) is a rear view. 同デジタルカメラの側面透視図である。2 is a side perspective view of the digital camera. FIG. (A)は前記回転式ミラー18の正面図、(B)は側面図である。(A) is a front view of the rotary mirror 18, and (B) is a side view. 同デジタルカメラの回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the digital camera. シーン別の撮影条件設定データメモリとユーザの手ブレ実績データメモリを示す概念図である。It is a conceptual diagram which shows the imaging condition setting data memory for every scene, and the camera shake result data memory of a user. 第1の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 1st Embodiment. (A)は手ブレのない状態、(B)は手ブレが生じた状態、(C)は手ブレを補正した状態を各々示す図である。(A) is a state without camera shake, (B) is a state where camera shake has occurred, and (C) is a diagram showing a state where camera shake is corrected. セラミックバイモルフ振動子を用いた圧電式の振動ジャイロを示す図である。It is a figure which shows the piezoelectric vibration gyro using a ceramic bimorph vibrator. 手ブレ量の検出回路の具体的構成例を示す図である。It is a figure which shows the specific structural example of the detection circuit of camera shake amount. 記録される波形例を示す図である。It is a figure which shows the example of a waveform recorded. ブレ補正装置の他の構成例を示す図である。It is a figure which shows the other structural example of a blurring correction apparatus. 本発明の第2実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 2nd Embodiment of this invention. 第3の実施の形態におけるブレ補正処理の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the blurring correction process in 3rd Embodiment. ブレ量、ボケ量の推定法の例を示す図である。It is a figure which shows the example of the estimation method of a blur amount and a blur amount. PSF法と多階調Hough換算によるブレ方向、ブレ距離、若しくは、焦Blur direction, blur distance, or focus by PSF method and multi-gradation Hough conversion

符号の説明Explanation of symbols

1 デジタルカメラ
2 本体
3 レリーズ釦
14 表示部
16 第1加速度センサ
17 第2角速度センサ
18 回転式ミラー
19 レンズ群
20 撮像素子
23 操作部
24 入力回路
25 制御部
26 表示メモリ
27 表示駆動ブロック
28 画像バッファメモリ
29 画像信号処理部
30 圧縮符号化/伸長復号化部
31 静止画/動画画像メモリ
32 プログラムメモリ
33 データメモリ
38 撮影制御部
39 外部メモリ媒体
51 角速度検出部
65 映像信号処理部
331 撮影条件設定データメモリ
332 手ブレ実績データメモリ
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Main body 3 Release button 14 Display part 16 1st acceleration sensor 17 2nd angular velocity sensor 18 Rotating mirror 19 Lens group 20 Imaging element 23 Operation part 24 Input circuit 25 Control part 26 Display memory 27 Display drive block 28 Image buffer Memory 29 Image signal processing unit 30 Compression encoding / decompression decoding unit 31 Still image / moving image memory 32 Program memory 33 Data memory 38 Shooting control unit 39 External memory medium 51 Angular velocity detection unit 65 Video signal processing unit 331 Shooting condition setting data Memory 332 Camera shake result data memory

Claims (9)

撮影手段と、
この撮影手段が撮影する画像のブレを補正するブレ補正手段と、
カメラ本体のブレを検出するブレ検出手段と、
このブレ検出手段により検出された前記カメラ本体のブレを示すブレ情報を当該カメラに設定される撮影条件に対応させて記憶するブレ情報記憶手段と、
前記カメラに設定された撮影条件に応じて、前記ブレ情報記憶手段から対応するブレ情報を取得する取得手段と、
この取得手段により取得されたブレ情報に基づき、前記ブレ補正手段の動作を制御する制御手段と
を備えることを特徴とするカメラ。
Photographing means;
A blur correction unit that corrects blur of an image captured by the shooting unit;
Blur detection means for detecting camera shake,
Blur information storage means for storing blur information indicating blur of the camera body detected by the blur detection means in correspondence with shooting conditions set in the camera;
An acquisition unit configured to acquire corresponding blur information from the blur information storage unit in accordance with a shooting condition set in the camera;
A camera comprising: control means for controlling the operation of the shake correction means based on the shake information acquired by the acquisition means.
前記制御手段は、
前記取得手段により取得されたブレ情報に基づき、前記撮影手段が撮影する画像のブレを補正すべきか否かを判断する補正判断手段を備え、
この補正判断手段の判断結果に応じて、前記ブレ補正手段を動作又は停止させることを特徴とする請求項1記載のカメラ。
The control means includes
Based on the blur information acquired by the acquisition unit, a correction determination unit that determines whether or not to correct blur of an image captured by the imaging unit,
2. The camera according to claim 1, wherein the blur correction unit is operated or stopped according to a determination result of the correction determination unit.
前記制御手段は、
前記取得手段により取得されたブレ情報が示すブレ量が許容ブレ量以上であるか否かを判断するブレ量判断手段を備え、
このブレ量判断手段の判断結果に応じて、前記ブレ補正手段を動作又は停止させることを特徴とする請求項1記載のカメラ。
The control means includes
A blur amount determining unit that determines whether or not a blur amount indicated by the blur information acquired by the acquiring unit is greater than or equal to an allowable blur amount;
2. The camera according to claim 1, wherein the blur correction unit is operated or stopped according to a determination result of the blur amount determination unit.
前記ブレ補正手段は、前記撮影手段が有する光学系を駆動するブレ補正機構であることを特徴とする請求項1、2又は3記載のカメラ。   The camera according to claim 1, wherein the blur correction unit is a blur correction mechanism that drives an optical system included in the photographing unit. 前記ブレ補正手段は、前記撮影手段が撮影する画像を画像補正する画像補正手段であることを特徴とする請求項1記載のカメラ。   The camera according to claim 1, wherein the blur correction unit is an image correction unit that corrects an image captured by the photographing unit. 前記ブレ情報記憶手段は、前記撮影手段により撮影が実行される毎に、ブレ検出手段により検出された前記カメラ本体のブレに基づき、前記ブレ情報を更新することを特徴とする請求項1乃至5にいずれか記載のカメラ。   6. The blur information storage unit updates the blur information based on a blur of the camera body detected by the blur detection unit each time shooting is performed by the shooting unit. Any one described in the camera. 前記ブレ情報記憶手段は、当該カメラの使用者を示す情報とともに、前記ブレ情報を記憶することを特徴とする請求項1乃至6にいずれか記載のカメラ。 The camera according to claim 1, wherein the blur information storage unit stores the blur information together with information indicating a user of the camera. 撮影手段と、この撮影手段が撮影する画像のブレを補正するブレ補正手段と、カメラ本体のブレを検出するブレ検出手段とを備えるカメラが有するコンピュータを、
前記ブレ検出手段により検出された前記カメラ本体のブレを示すブレ情報を当該カメラに設定される撮影条件に対応させて記憶するブレ情報記憶手段と、
前記カメラに設定された撮影条件に応じて、前記ブレ情報記憶手段から対応するブレ情報を取得する取得手段と、
この取得手段により取得されたブレ情報に基づき、前記ブレ補正手段の動作を制御する制御手段と
して機能させることを特徴とするカメラ制御プログラム。
A computer having a camera comprising: an imaging unit; a blur correction unit that corrects blur of an image captured by the imaging unit; and a blur detection unit that detects blur of the camera body;
Blur information storage means for storing blur information indicating blur of the camera body detected by the blur detection means in correspondence with shooting conditions set in the camera;
An acquisition unit that acquires corresponding blur information from the blur information storage unit according to the shooting conditions set in the camera;
A camera control program that functions as a control unit that controls the operation of the blur correction unit based on the blur information acquired by the acquisition unit.
撮影手段と、この撮影手段が撮影する画像のブレを補正するブレ補正手段と、カメラ本体のブレを検出するブレ検出手段とを備えるカメラの制御方法であって、
前記ブレ検出手段により検出された前記カメラ本体のブレを示すブレ情報を当該カメラに設定される撮影条件に対応させて記憶手段に記憶するブレ情報記憶ステップと、
前記カメラに設定された撮影条件に応じて、前記記憶手段から対応するブレ情報を取得する取得ステップと、
この取得手段ステップにより取得されたブレ情報に基づき、前記ブレ補正手段の動作を制御する制御ステップと
を含むことを特徴とするカメラ制御方法。
A camera control method comprising: an imaging unit; a blur correction unit that corrects blur of an image captured by the imaging unit; and a blur detection unit that detects blur of the camera body,
A blur information storage step for storing blur information indicating blur of the camera body detected by the blur detection unit in a storage unit in association with shooting conditions set in the camera;
An acquisition step of acquiring corresponding blur information from the storage unit according to the shooting conditions set in the camera;
And a control step for controlling the operation of the shake correcting means based on the shake information acquired by the acquiring means step.
JP2008089578A 2008-03-31 2008-03-31 Camera, camera control program and camera control method Pending JP2009244490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008089578A JP2009244490A (en) 2008-03-31 2008-03-31 Camera, camera control program and camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008089578A JP2009244490A (en) 2008-03-31 2008-03-31 Camera, camera control program and camera control method

Publications (2)

Publication Number Publication Date
JP2009244490A true JP2009244490A (en) 2009-10-22
JP2009244490A5 JP2009244490A5 (en) 2011-05-06

Family

ID=41306462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008089578A Pending JP2009244490A (en) 2008-03-31 2008-03-31 Camera, camera control program and camera control method

Country Status (1)

Country Link
JP (1) JP2009244490A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011096157A1 (en) * 2010-02-02 2011-08-11 パナソニック株式会社 Imaging device and method, and image processing method for imaging device
JP2012014458A (en) * 2010-06-30 2012-01-19 Toshiba Tec Corp Traffic line processing device, method and program
WO2012056686A1 (en) * 2010-10-27 2012-05-03 パナソニック株式会社 3d image interpolation device, 3d imaging device, and 3d image interpolation method
JP2016533691A (en) * 2014-08-28 2016-10-27 シャオミ・インコーポレイテッド Imaging method, imaging apparatus, program, and storage medium
WO2017146000A1 (en) * 2016-02-24 2017-08-31 富士フイルム株式会社 Drive device, antivibration device and binoculars
EP4006623A4 (en) * 2019-07-31 2022-10-05 Huawei Technologies Co., Ltd. Optical anti-shake apparatus and control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0456831A (en) * 1990-06-22 1992-02-24 Canon Inc Image blurring preventing device
JP2002016837A (en) * 2000-04-26 2002-01-18 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2005181712A (en) * 2003-12-19 2005-07-07 Nikon Corp Camera shake correction system
JP2006023631A (en) * 2004-07-09 2006-01-26 Pentax Corp Camera with image blurring correction function

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0456831A (en) * 1990-06-22 1992-02-24 Canon Inc Image blurring preventing device
JP2002016837A (en) * 2000-04-26 2002-01-18 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2005181712A (en) * 2003-12-19 2005-07-07 Nikon Corp Camera shake correction system
JP2006023631A (en) * 2004-07-09 2006-01-26 Pentax Corp Camera with image blurring correction function

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8553091B2 (en) 2010-02-02 2013-10-08 Panasonic Corporation Imaging device and method, and image processing method for imaging device
JP2011159159A (en) * 2010-02-02 2011-08-18 Panasonic Corp Imaging device and method, and image processing method for imaging device
WO2011096157A1 (en) * 2010-02-02 2011-08-11 パナソニック株式会社 Imaging device and method, and image processing method for imaging device
JP2012014458A (en) * 2010-06-30 2012-01-19 Toshiba Tec Corp Traffic line processing device, method and program
CN102687515B (en) * 2010-10-27 2015-07-15 杜比国际公司 3D image interpolation device,3d imaging device,and 3d image interpolation method
CN102687515A (en) * 2010-10-27 2012-09-19 松下电器产业株式会社 3D image interpolation device,3d imaging device,and 3d image interpolation method
WO2012056686A1 (en) * 2010-10-27 2012-05-03 パナソニック株式会社 3d image interpolation device, 3d imaging device, and 3d image interpolation method
US9270970B2 (en) 2010-10-27 2016-02-23 Dolby International Ab Device apparatus and method for 3D image interpolation based on a degree of similarity between a motion vector and a range motion vector
JP5887267B2 (en) * 2010-10-27 2016-03-16 ドルビー・インターナショナル・アーベー 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method
JP2016533691A (en) * 2014-08-28 2016-10-27 シャオミ・インコーポレイテッド Imaging method, imaging apparatus, program, and storage medium
US9661223B2 (en) 2014-08-28 2017-05-23 Xiaomi Inc. Method and device for photographing including camera shake
WO2017146000A1 (en) * 2016-02-24 2017-08-31 富士フイルム株式会社 Drive device, antivibration device and binoculars
JPWO2017146000A1 (en) * 2016-02-24 2018-10-11 富士フイルム株式会社 Vibration isolator and binoculars
EP4006623A4 (en) * 2019-07-31 2022-10-05 Huawei Technologies Co., Ltd. Optical anti-shake apparatus and control method

Similar Documents

Publication Publication Date Title
TWI386040B (en) Image pickup apparatus equipped with function of detecting image shaking
US8279293B2 (en) Image stabilizing apparatus and image pickup apparatus
JP5011387B2 (en) Imaging device
JP4968885B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
JP2008035308A (en) Electronic camera and lens unit
JP4466430B2 (en) Electronic camera and imaging control program
US20020047906A1 (en) Photographing apparatus having variable image blur correction control characteristics for still photography and motion picture photography
JP2014126860A (en) Optical device, imaging device and control method of the same, program, storage medium
KR20150061561A (en) An image pickup apparatus and control method
JP2009244490A (en) Camera, camera control program and camera control method
JP2008145662A (en) Imaging apparatus and adjusting method thereof
JP2017129785A (en) Imaging device, and image tremor correction method
US10735655B2 (en) Apparatus, method, and program for image processing
JP3646124B2 (en) Autofocus device
JP4930579B2 (en) Electronic camera, imaging control method and program
EP3151544B1 (en) Filter control device, filter control method, and imaging device
JP6395401B2 (en) Image shake correction apparatus, control method therefor, optical apparatus, and imaging apparatus
CN111698416B (en) Image processing apparatus, image processing method, and storage medium
JP2012247544A (en) Imaging device, program, and shake correction method of imaging device
JP2012042589A (en) Image shake correction mechanism, lens barrel, and image sensor
JP5182395B2 (en) Imaging apparatus, imaging method, and imaging program
JPWO2006043315A1 (en) IMAGING DEVICE AND PORTABLE DEVICE HAVING IMAGING DEVICE
JP2017032653A (en) Image blur correction device, control method thereof, imaging apparatus, and optical apparatus
JP6711099B2 (en) Imaging device
JP2010016650A (en) Imaging apparatus, control method thereof and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130402