JP5014262B2 - Imaging apparatus, control method thereof, and program - Google Patents

Imaging apparatus, control method thereof, and program Download PDF

Info

Publication number
JP5014262B2
JP5014262B2 JP2008148319A JP2008148319A JP5014262B2 JP 5014262 B2 JP5014262 B2 JP 5014262B2 JP 2008148319 A JP2008148319 A JP 2008148319A JP 2008148319 A JP2008148319 A JP 2008148319A JP 5014262 B2 JP5014262 B2 JP 5014262B2
Authority
JP
Japan
Prior art keywords
lens
information
image
zoom operation
dust
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008148319A
Other languages
Japanese (ja)
Other versions
JP2009296360A5 (en
JP2009296360A (en
Inventor
圭介 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008148319A priority Critical patent/JP5014262B2/en
Priority to US12/466,839 priority patent/US8593537B2/en
Priority to CN 200910146963 priority patent/CN101600046B/en
Publication of JP2009296360A publication Critical patent/JP2009296360A/en
Publication of JP2009296360A5 publication Critical patent/JP2009296360A5/ja
Application granted granted Critical
Publication of JP5014262B2 publication Critical patent/JP5014262B2/en
Priority to US14/061,279 priority patent/US9013608B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、CCDやCMOSセンサ等の撮像素子を用いた撮像装置における、光学ローパスフィルター等の表面に付着した異物による画質劣化を抑制する技術に関する。   The present invention relates to a technique for suppressing image quality deterioration due to foreign matter adhering to the surface of an optical low-pass filter or the like in an imaging apparatus using an imaging element such as a CCD or CMOS sensor.

近年、デジタルカメラやデジタルビデオカメラなどのように、CCD等の撮像素子を用いて画像信号を生成し、それをデータとして記録する撮像装置が数多く出回るようになってきている。デジタルカメラでは、従来記録媒体として使用していた感光フィルムが不要になり、これに代わって半導体メモリカードやハードディスク装置等のデータ記録媒体にデータ化された画像を記録する。これらのデータ記録媒体はフィルムと違って何度でも書き込み、消去が可能であるので、消耗品にかかる経費が少なくて済み、大変便利である。   2. Description of the Related Art In recent years, many image pickup apparatuses that generate image signals using an image pickup device such as a CCD and record the data as data, such as digital cameras and digital video cameras, have come into circulation. In a digital camera, a photosensitive film that has been used as a conventional recording medium is no longer necessary, and instead of this, a data image is recorded on a data recording medium such as a semiconductor memory card or a hard disk device. Since these data recording media can be written and erased any number of times unlike films, the cost for consumables can be reduced, which is very convenient.

通常、デジタルカメラには撮像画像を随時表示可能なLCD(液晶表示器)モニタ装置と、着脱可能な大容量記憶装置が搭載されている。   Usually, a digital camera is equipped with an LCD (Liquid Crystal Display) monitor device capable of displaying captured images at any time and a detachable mass storage device.

これら二つの装置を備えたデジタルカメラを利用すると、従来消耗品として使用してきた記録媒体であるフィルムが不要になるばかりでなく、撮像した画像をLCDモニタ装置に表示してその場で直ちに確認できる。したがって、満足の得られない画像データはその場で消去したり、必要に応じて再撮影したりすることが可能となり、フィルムを用いる銀塩カメラと比較すると、写真撮影の効率が飛躍的に高まったと言える。   Using a digital camera equipped with these two devices not only eliminates the need for a film as a recording medium that has been used as a consumable item in the past, but also allows the captured image to be displayed on the LCD monitor device and immediately confirmed on the spot. . Therefore, unsatisfactory image data can be erased on the spot or re-photographed as needed, and the efficiency of photography is dramatically increased compared to film cameras using film. I can say.

このような利便性と撮像素子の多画素化などの技術革新により、デジタルカメラの利用範囲は拡大してきており、近年では一眼レフ方式などレンズ交換が可能なデジタルカメラも多くなってきている。
特開2004−222231号公報
Due to such convenience and technological innovations such as an increase in the number of pixels of the image sensor, the range of use of digital cameras has been expanded, and in recent years, there are many digital cameras capable of exchanging lenses, such as a single-lens reflex system.
JP 2004-222231 A

しかしながら、デジタルカメラでは、撮像素子に固定された撮像素子保護ガラス、光学フィルター等の表面上や光学系(以下、まとめて撮像素子光学系部品)にゴミ、ほこりなどの異物(以下、単にゴミ)が付着する場合がある。このように撮像素子光学系部品にゴミが付着すると、そのゴミによって光が遮られ、その部分が撮影されないなど、撮影した画像の品質が低下するという問題があった。   However, in a digital camera, foreign matter such as dust or dust (hereinafter simply dust) on the surface of the image sensor protective glass fixed to the image sensor, an optical filter, or the optical system (hereinafter collectively referred to as an image sensor optical system component). May adhere. When dust adheres to the image sensor optical system component in this way, there is a problem that the quality of the photographed image is deteriorated, for example, light is blocked by the dust and the portion is not photographed.

デジタルカメラに限らず銀塩フィルムを用いるカメラにおいても、フィルム上にゴミが存在すると写りこんでしまう問題はあったが、フィルムの場合は1コマごとにフィルムが移動するため、全てのコマに同様のゴミが写りこむことは大変稀である。   Not only digital cameras but also cameras using silver halide film have a problem of being captured if there is dust on the film, but in the case of film, the film moves from frame to frame, so it is the same for all frames It is very rare for trash to appear.

しかし、デジタルカメラの撮像素子は移動せず、共通した撮像素子で撮影を行うため、撮像素子光学系部品に一度ゴミが付着すると、多くのコマ(撮影画像)に同様のゴミが写りこんでしまう。特にレンズ交換式のデジタルカメラにおいては、レンズ交換時にカメラ内にゴミが入り込みやすいという問題がある。   However, since the image sensor of the digital camera does not move and images are taken with a common image sensor, once the dust adheres to the image sensor optical system parts, the same dust appears in many frames (photographed images). . Particularly in an interchangeable lens digital camera, there is a problem that dust easily enters the camera when the lens is replaced.

したがって、撮影者は撮像素子光学系部品へのゴミの付着に常時気を使わねばならず、ゴミのチェックや清掃に多くの労力を費やしていた。特に撮像素子は、カメラ内部の比較的奥まったところに配置されているため、清掃やゴミの確認は容易ではない。   Therefore, the photographer must always pay attention to the adhesion of dust to the image sensor optical system parts, and has spent a lot of labor on checking and cleaning the dust. In particular, since the image sensor is disposed at a relatively deep location inside the camera, it is not easy to clean or check for dust.

さらにレンズ交換式のデジタルカメラでは、レンズ着脱によりゴミの侵入が容易であるばかりでなく、レンズ交換式デジタルカメラの多くは撮像素子の直前にフォーカルプレーンシャッターを配置しており、撮像素子光学系部品上にゴミが付着しやすい。   In addition, with interchangeable lens digital cameras, not only dust can be easily infiltrated by attaching and detaching the lens, but many of the interchangeable lens digital cameras have a focal plane shutter immediately in front of the image sensor. Garbage easily adheres to the top.

このような撮像素子上のゴミは、通常撮像素子の表面にではなく、保護用のガラスや光学フィルター上に付着しているため、撮影レンズの絞り値や瞳位置により結像状態が異なる。即ち、絞りが開放値に近いとぼやけてしまい、小さいゴミが付着していたとしてもほとんど影響が無くなるが、逆に絞り値が大きくなるとはっきり結像し画像に影響を与えててしまう。   Since such dust on the image sensor usually adheres not to the surface of the image sensor but to the protective glass or optical filter, the imaging state differs depending on the aperture value and pupil position of the photographing lens. That is, if the aperture is close to the open value, the image is blurred, and even if small dust is attached, there is almost no effect. However, if the aperture value is increased, the image is clearly formed and the image is affected.

そこで、レンズの絞りを絞った状態で白い壁などを撮影し、撮像素子上のゴミだけが写った画像を予め用意して通常撮影画像と組み合わせて使用することで、ゴミを目立たなくする方法が知られている(特許文献1参照)。しかし、この方法では、ゴミ検出用に撮影した画像と、それに関連付ける本撮影画像群との対応付けを常に意識しなくてはならず、煩わしいという問題があった。   Therefore, there is a method to make dust inconspicuous by taking a picture of a white wall etc. with the lens aperture closed and preparing an image showing only dust on the image sensor in combination with a normal shot image. It is known (see Patent Document 1). However, in this method, there is a problem that it is necessary to always be aware of the association between the image captured for dust detection and the actual captured image group associated therewith, which is troublesome.

さらに近年では、レンズ交換式のデジタルカメラでも、動画を撮影する機能が備えられているものがある。当然ながら、動画でも静止画と同様にゴミが画像に写りこんでしまうことが問題となる。さらに動画撮影の場合、撮影中にズームイン/ズームアウトを行うことができるため、撮影レンズの絞り値や瞳位置が変化し、各フレームに対するゴミの結像状態が異なってしまうという問題がある。   In recent years, some interchangeable lens type digital cameras have a function of taking a moving image. As a matter of course, the problem is that dust also appears in an image as with a still image. Further, in the case of moving image shooting, zoom-in / zoom-out can be performed during shooting, which causes a problem that the aperture value and pupil position of the shooting lens change, and the dust image formation state for each frame varies.

従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、撮像素子に固定された保護ガラス、フィルター等にゴミが付着した場合でも、撮影した動画像への影響を抑制できるようにすることである。   Therefore, the present invention has been made in view of the above-described problems, and the object thereof is to suppress the influence on a captured moving image even when dust adheres to protective glass, a filter, or the like fixed to the image sensor. Is to do so.

上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、撮影レンズにより結像された被写体像を光電変換する撮像素子を有する撮像手段と、前記撮像手段より得られる異物検出用画像信号に含まれる異物の像から、少なくとも前記異物の位置及び大きさの情報を含む異物情報を検出する異物検出手段と、前記撮影レンズの絞り値及び瞳位置の情報を含むレンズ情報を取得するレンズ情報取得手段と、動画像撮影が行われるときに、前記撮像手段から連続的に出力される画像信号に基づいて生成される動画像データを記録するとともに、該動画像データに前記異物情報と前記レンズ情報とを付加して記録する記録手段と、前記撮影レンズのズーム操作の開始および終了を検出するズーム操作検出手段と、を備え、前記ズーム操作検出手段が前記撮影レンズのズーム操作の開始を検出するときに、前記記録手段は新規のフラグメントを作成し、前記ズーム操作検出手段が前記撮影レンズのズーム操作の開始を検出してから、前記撮影レンズのズーム操作の終了を検出するまでの間に、前記レンズ情報取得手段は前記レンズ情報を更新して、前記記録手段は、前記更新されたレンズ情報を前記動画像データに付加して前記新規のフラグメントに記録することを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit having an imaging element that photoelectrically converts a subject image formed by a photographic lens , and a foreign object obtained from the imaging unit. from the image of the foreign matter contained in the detection image signal, and the foreign matter detection means for detecting the foreign substance information including information of the position and size of the foreign substance even without low, the lens including the information of the aperture value and the pupil position of the photographing lens Lens information acquisition means for acquiring information, and when moving image shooting is performed, moving image data generated based on image signals continuously output from the imaging means is recorded, and the moving image data is recorded in the moving image data before comprising recording means for recording added Kikoto product information and the lenses information, and a zoom operation detection means for detecting the start and end of the zoom operation of the imaging lens, the zoom When the operation detection unit detects the start of the zoom operation of the photographing lens, the recording unit creates a new fragment, and after the zoom operation detection unit detects the start of the zoom operation of the photographing lens, until detecting the end of the zoom operation of the imaging lens, the said lens information acquisition means and updating the lens information, the recording unit adds the updated lens information on the moving image data and the It is characterized by recording in a new fragment .

また、本発明に係わる撮像装置の制御方法は、撮影レンズにより結像された被写体像を光電変換する撮像素子を有する撮像手段を備える撮像装置を制御する方法であって、前記撮像手段より得られる異物検出用画像信号に含まれる異物の像から、少なくとも前記異物の位置及び大きさの情報を含む異物情報を検出する異物検出ステップと、前記撮影レンズの絞り値及び瞳位置の情報を含むレンズ情報を取得するレンズ情報取得ステップと、動画像撮影が行われるときに、前記撮像手段から連続的に出力される画像信号に基づいて生成される動画像データを記録するとともに、該動画像データに前記異物情報と前記レンズ情報とを付加して記録する記録ステップと、前記撮影レンズのズーム操作の開始および終了を検出するズーム操作検出ステップと、を備え、前記ズーム操作検出ステップで前記撮影レンズのズーム操作の開始が検出されるときに、前記記録ステップで新規のフラグメントを作成し、前記ズーム操作検出ステップで前記撮影レンズのズーム操作の開始が検出されてから、前記撮影レンズのズーム操作の終了が検出されるまでの間に、前記レンズ情報取得ステップで前記レンズ情報が更新され、前記記録ステップで前記更新されたレンズ情報を前記動画像データに付加して前記新規のフラグメントに記録することを特徴とする。 The image pickup apparatus control method according to the present invention is a method for controlling an image pickup apparatus including an image pickup unit having an image pickup element that photoelectrically converts a subject image formed by a photographing lens , and is obtained from the image pickup unit. from foreign matter images included in the foreign substance detection image signal, comprising the foreign substance detection step of detecting the foreign substance information including information of the position and size of the foreign substance even without less, the information of the aperture value and the pupil position of the photographing lens A lens information acquisition step for acquiring lens information, and when moving image shooting is performed, moving image data generated based on image signals continuously output from the imaging unit is recorded, and the moving image data before Kikoto product information and the lenses information recording step of recording added and the start of the zoom operation of the imaging lens and the zoom operation is detected detects the end stearyl Comprising a flop and, when the start of the zoom operation is detected in the photographing lens in the zoom operation detection step, the create new fragments in the recording step, the zoom operation of the photographing lens by the zoom operation detection step The lens information is updated in the lens information acquisition step and the updated lens information is updated in the recording step from when the start of detection is detected until the end of the zoom operation of the photographing lens is detected. It is added to moving image data and recorded in the new fragment .

本発明によれば、撮像素子に固定された保護ガラス、フィルター等にゴミが付着した場合でも、撮影した動画像への影響を抑制することが可能となる。   According to the present invention, even when dust adheres to protective glass, a filter, or the like fixed to the image sensor, it is possible to suppress the influence on the captured moving image.

以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係るデジタルカメラ120の外観を示す斜視図、図2は図1の垂直断面図である。
(First embodiment)
FIG. 1 is a perspective view showing an appearance of a digital camera 120 according to the first embodiment of the present invention, and FIG. 2 is a vertical sectional view of FIG.

図1において、カメラ本体100の上部には、アクセサリシュー110、光学ファインダ104、AE(自動露出)ロックボタン112、AF(オートフォーカス)の測距点選択ボタン113、撮影操作をするためのレリーズボタン114が設けられている。また、電子ダイヤル411、モードダイヤル60、および外部表示装置409も設けられている。電子ダイヤル411は、他の操作ボタンと併用してカメラに数値を入力したり、撮影モードを切り換えたりするための多機能信号入力装置である。また、外部表示装置409は、液晶表示装置から構成され、シャッタースピード、絞り値、撮影モードなどの撮影条件や、他の情報を表示する。   In FIG. 1, an accessory shoe 110, an optical viewfinder 104, an AE (automatic exposure) lock button 112, an AF (autofocus) distance measuring point selection button 113, and a release button for performing a photographing operation are provided on the upper part of the camera body 100. 114 is provided. An electronic dial 411, a mode dial 60, and an external display device 409 are also provided. The electronic dial 411 is a multi-function signal input device that is used in combination with other operation buttons to input numerical values to the camera and to switch the shooting mode. The external display device 409 includes a liquid crystal display device, and displays shooting conditions such as shutter speed, aperture value, shooting mode, and other information.

また、カメラ本体100の背面には、撮影された画像や各種設定画面などを表示するLCDモニタ装置417、LCDモニタ装置417に撮影した画像を表示する再生スイッチ66、単写/連写スイッチ68、十字配置スイッチ116、メニューボタン124、および電源スイッチ72が設けられている。   Also, on the back of the camera body 100, an LCD monitor device 417 for displaying captured images and various setting screens, a playback switch 66 for displaying captured images on the LCD monitor device 417, a single / continuous shooting switch 68, A cross placement switch 116, a menu button 124, and a power switch 72 are provided.

単写/連写スイッチ68は、後述するシャッタースイッチSW2(64)を押した場合に、1コマの撮影を行って待機状態とする単写モードと、シャッタースイッチSW2(64)を押している間連続して撮影を行い続ける連写モードとを設定することができる。   The single-shot / continuous-shot switch 68 is in a single-shot mode in which a single frame is shot and placed in a standby state when a shutter switch SW2 (64), which will be described later, is pressed, and continuously while the shutter switch SW2 (64) is pressed. The continuous shooting mode can be set.

十字配置スイッチ116は、上下左右に配された4つのボタンと、中央に配されたSETボタン117を有し、ユーザがLCDモニタ装置417に表示されるメニュー項目などの選択や実行をカメラに指示するために用いられる。   The cross switch 116 has four buttons arranged vertically and horizontally and a SET button 117 arranged in the center. The user instructs the camera to select and execute menu items displayed on the LCD monitor device 417. Used to do.

メニューボタン124は、LCDモニタ装置417にカメラの各種設定を行うためのメニュー画面を表示させるためのボタンである。例えば、撮影モードを選択、設定する時は、このメニューボタン124を押した後、十字配置スイッチ116の上下左右のボタンを操作して希望のモードを選択し、希望のモードが選択された状態でSETボタン117を押すことにより設定が完了する。   The menu button 124 is a button for causing the LCD monitor device 417 to display a menu screen for performing various camera settings. For example, when selecting and setting the shooting mode, after pressing the menu button 124, the user operates the up / down / left / right buttons of the cross switch 116 to select the desired mode, and the desired mode is selected. Pressing the SET button 117 completes the setting.

本実施形態のLCDモニタ装置417は透過型であるため、LCDモニタ装置の駆動だけでは画像を視認することはできず、必ずその裏面には図2に示すようにバックライト照明装置416が必要である。このようにLCDモニタ装置417とバックライト照明装置416は図3に示すように画像表示部28を構成している。   Since the LCD monitor device 417 of the present embodiment is a transmissive type, an image cannot be visually recognized only by driving the LCD monitor device, and a backlight illumination device 416 is always required on the back side as shown in FIG. is there. In this way, the LCD monitor device 417 and the backlight illumination device 416 constitute the image display unit 28 as shown in FIG.

図2に示すように、本実施形態の撮像装置は、主にカメラ本体100と、交換レンズタイプのレンズユニット300により構成されている。図2において、401は撮影光軸である。   As shown in FIG. 2, the imaging apparatus according to the present embodiment mainly includes a camera body 100 and an interchangeable lens type lens unit 300. In FIG. 2, 401 is a photographing optical axis.

レンズユニット300において、310は複数のレンズから成る撮像レンズ、312は絞り、306は、レンズユニット300をカメラ本体100と機械的に結合するレンズマウントである。レンズユニット300は、カメラ本体100に対してレンズマウント306を介して着脱可能である。   In the lens unit 300, 310 is an imaging lens composed of a plurality of lenses, 312 is a diaphragm, and 306 is a lens mount that mechanically couples the lens unit 300 to the camera body 100. The lens unit 300 can be attached to and detached from the camera body 100 via a lens mount 306.

カメラ本体100において、ミラー130は撮影光路中に配置され、レンズユニット300からの被写体光をファインダ光学系に導く位置(図2に示す位置、斜設位置と呼ぶ)と撮影光路外に退避する位置(退避位置と呼ぶ)との間で移動可能である。なお、ミラー130はクイックリターンミラーの構成としても、ハーフミラーの構成としても、どちらでも構わない。   In the camera body 100, the mirror 130 is disposed in the photographing optical path, and a position for guiding the subject light from the lens unit 300 to the finder optical system (referred to as a position shown in FIG. 2, an oblique position) and a position for retreating from the photographing optical path. (Referred to as a retracted position). The mirror 130 may be either a quick return mirror or a half mirror.

図2において、ピント板204上にはミラー130から光学ファインダ104に導かれる被写体光が結像される。205はファインダの視認性を向上させるためのコンデンサレンズ、132はペンタゴナルダハプリズムであり、ピント板204およびコンデンサレンズ205を通った被写体光をファインダ観察用の接眼レンズ208および光学ファインダ104に導く。   In FIG. 2, the subject light guided from the mirror 130 to the optical viewfinder 104 is imaged on the focus plate 204. Reference numeral 205 denotes a condenser lens for improving the visibility of the finder. Reference numeral 132 denotes a pentagonal roof prism.

209、210はそれぞれシャッターを構成する後幕と先幕で、これら後幕209、先幕210の開放によって後方に配置されている固体撮像素子である撮像素子14が必要時間だけ露光される。撮像素子14は、その前面に光学ローパスフィルタ418が配設されており、撮像素子14に結像する被写体像の空間周波数を調整している。撮影画像に影響を及ぼすゴミ(異物)は、この光学ローパスフィルタ418に付着し、撮像素子14に結像する被写体像に影として現れることにより、撮影画像の品質を劣化させる。   Reference numerals 209 and 210 respectively denote a rear curtain and a front curtain that constitute a shutter, and the rear and rear curtains 209 and 210 expose the image sensor 14 that is a solid-state image sensor disposed rearward for a necessary time. The image sensor 14 is provided with an optical low-pass filter 418 on the front surface thereof, and adjusts the spatial frequency of the subject image formed on the image sensor 14. Dust (foreign matter) affecting the captured image adheres to the optical low-pass filter 418 and appears as a shadow on the subject image formed on the image sensor 14, thereby degrading the quality of the captured image.

撮像素子14はプリント基板211に保持されている。このプリント基板211の後方には、もう一枚のプリント基板である表示基板215が配置されている。この表示基板215の反対側の面にLCDモニタ装置417およびバックライト照明装置416が配置されている。   The image sensor 14 is held on the printed circuit board 211. Behind this printed board 211, a display board 215, which is another printed board, is arranged. An LCD monitor device 417 and a backlight illumination device 416 are disposed on the opposite surface of the display substrate 215.

200は画像データを記録する記録媒体であり、86は電池(携帯用電源)である。この記録媒体200および電池86は、カメラ本体100に対して着脱可能である。   Reference numeral 200 denotes a recording medium for recording image data, and 86 denotes a battery (portable power supply). The recording medium 200 and the battery 86 are detachable from the camera body 100.

図3は、本発明の第1の実施形態に係るレンズ交換式のデジタルカメラの回路構成を示すブロック図である。   FIG. 3 is a block diagram illustrating a circuit configuration of the interchangeable lens digital camera according to the first embodiment of the present invention.

まず、レンズユニット300の構成について説明する。   First, the configuration of the lens unit 300 will be described.

レンズマウント306内には、レンズユニット300をカメラ本体100と電気的に接続する各種機能が含まれている。320は、レンズマウント306において、レンズユニット300をカメラ本体100と接続するためのインターフェース、322はレンズユニット300をカメラ本体100と電気的に接続するコネクタである。   The lens mount 306 includes various functions for electrically connecting the lens unit 300 to the camera body 100. Reference numeral 320 denotes an interface for connecting the lens unit 300 to the camera body 100 in the lens mount 306, and 322 denotes a connector for electrically connecting the lens unit 300 to the camera body 100.

コネクタ322は、カメラ本体100とレンズユニット300との間で制御信号、状態信号、データ信号などを伝え合うと共に、各種電圧の電流を供給される機能も備えている。また、コネクタ322は電気通信のみならず、光通信、音声通信などを伝達する構成としても良い。   The connector 322 has a function of transmitting control signals, status signals, data signals, and the like between the camera body 100 and the lens unit 300 and supplying currents of various voltages. The connector 322 may be configured to transmit not only electrical communication but also optical communication, voice communication, and the like.

340は測光制御部46からの測光情報に基づいて、後述するカメラ本体100のシャッター12を制御するシャッター制御部40と連携しながら、絞り312を制御する絞り制御部である。342は撮像レンズ310のフォーカシングを制御するフォーカス制御部、344は撮像レンズ310のズーミングを制御するズーム制御部である。   Reference numeral 340 denotes an aperture control unit that controls the aperture 312 in cooperation with a shutter control unit 40 that controls a shutter 12 of the camera body 100 described later based on photometric information from the photometry control unit 46. Reference numeral 342 denotes a focus control unit that controls focusing of the imaging lens 310, and 344 denotes a zoom control unit that controls zooming of the imaging lens 310.

350はレンズユニット300全体を制御するレンズシステム制御回路である。レンズシステム制御回路350は、動作用の定数、変数、プログラムなどを記憶するメモリを備えている。更に、レンズユニット300固有の番号などの識別情報、管理情報、開放絞り値や最小絞り値、焦点距離などの機能情報、現在や過去の各設定値などを保持する不揮発性メモリも備えている。   A lens system control circuit 350 controls the entire lens unit 300. The lens system control circuit 350 includes a memory for storing operation constants, variables, programs, and the like. Further, a non-volatile memory that holds identification information such as a unique number of the lens unit 300, management information, function information such as an open aperture value, a minimum aperture value, and a focal length, and current and past setting values is also provided.

次に、カメラ本体100の構成について説明する。   Next, the configuration of the camera body 100 will be described.

106はカメラ本体100とレンズユニット300を機械的に結合するレンズマウントである。12は、後幕209および先幕210を備えるシャッターである。撮像レンズ310に入射した光線は、一眼レフ方式によって光量制限手段である絞り312、レンズマウント306及び106、ミラー130、シャッター12を介して導かれ、光学像として被写体像を光電変換する撮像素子14上に結像する。   A lens mount 106 mechanically couples the camera body 100 and the lens unit 300. A shutter 12 includes a rear curtain 209 and a front curtain 210. A light beam incident on the imaging lens 310 is guided by a single-lens reflex system through a diaphragm 312 which is a light amount limiting unit, lens mounts 306 and 106, a mirror 130, and a shutter 12, and photoelectrically converts a subject image as an optical image. Image on top.

16は、撮像素子14から出力されるアナログ信号をデジタル信号に変換するA/D変換器である。18は撮像素子14、A/D変換器16、D/A変換器26にそれぞれクロック信号や制御信号を供給するタイミング発生回路であり、メモリ制御回路22及びシステム制御回路50により制御される。   Reference numeral 16 denotes an A / D converter that converts an analog signal output from the image sensor 14 into a digital signal. A timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 14, the A / D converter 16, and the D / A converter 26, respectively, and is controlled by the memory control circuit 22 and the system control circuit 50.

20は画像処理回路であり、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。また、画像処理回路20は、必要に応じて、A/D変換器16から出力される画像データを用いて所定の演算処理を行う。得られた演算結果に基づいてシステム制御回路50がシャッター制御部40、焦点調節部42を制御するための、TTL(スルー・ザ・レンズ)方式のオートフォーカス(AF)処理、自動露出(AE)処理、フラッシュプリ発光(EF)処理を行うことができる。さらに、画像処理回路20は、A/D変換器16から出力される画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のオートホワイトバランス(AWB)処理も行っている。   An image processing circuit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 16 or the data from the memory control circuit 22. Further, the image processing circuit 20 performs predetermined arithmetic processing using the image data output from the A / D converter 16 as necessary. TTL (through-the-lens) type autofocus (AF) processing and automatic exposure (AE) for the system control circuit 50 to control the shutter control unit 40 and the focus adjustment unit 42 based on the obtained calculation result. Processing and flash pre-emission (EF) processing can be performed. Further, the image processing circuit 20 performs predetermined arithmetic processing using the image data output from the A / D converter 16, and also performs TTL auto white balance (AWB) processing based on the obtained arithmetic result. ing.

なお、本実施形態における図3に示す例では、焦点調節部42及び測光制御部46を専用に備えている。従って、焦点調節部42及び測光制御部46を用いてAF処理、AE処理、EF処理の各処理を行い、画像処理回路20を用いたAF処理、AE処理、EF処理の各処理を行わない構成としても構わない。また、焦点調節部42及び測光制御部46を用いてAF処理、AE処理、EF処理の各処理を行い、さらに、画像処理回路20を用いたAF処理、AE処理、EF処理の各処理を行う構成としてもよい。   In the example shown in FIG. 3 in the present embodiment, the focus adjusting unit 42 and the photometric control unit 46 are provided exclusively. Therefore, the AF adjustment process, the AE process, and the EF process are performed using the focus adjustment unit 42 and the photometry control unit 46, and the AF process, the AE process, and the EF process using the image processing circuit 20 are not performed. It doesn't matter. Further, AF processing, AE processing, and EF processing are performed using the focus adjustment unit 42 and the photometry control unit 46, and further, AF processing, AE processing, and EF processing using the image processing circuit 20 are performed. It is good also as a structure.

22はメモリ制御回路であり、A/D変換器16、タイミング発生回路18、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮・伸長回路32を制御する。A/D変換器16から出力される画像データは、画像処理回路20、メモリ制御回路22を介して、或いはメモリ制御回路22のみを介して、画像表示メモリ24或いはメモリ30に書き込まれる。   A memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the image processing circuit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression circuit 32. Image data output from the A / D converter 16 is written into the image display memory 24 or the memory 30 via the image processing circuit 20, the memory control circuit 22, or only through the memory control circuit 22.

24は画像表示メモリ、26はD/A変換器、28はLCDモニタ装置417、バックライト照明装置416等から成る画像表示部であり、画像表示メモリ24に書き込まれた表示用の画像データはD/A変換器26を介して画像表示部28により表示される。画像表示部28を用いて、撮像した画像データを逐次表示することで、電子ビューファインダ(EVF)機能を実現することができる。また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合にはカメラ本体100の電力消費を大幅に低減することができる。   Reference numeral 24 denotes an image display memory, 26 denotes a D / A converter, 28 denotes an image display unit including an LCD monitor device 417, a backlight illumination device 416, and the like. The display image data written in the image display memory 24 is D The image is displayed by the image display unit 28 via the / A converter 26. An electronic viewfinder (EVF) function can be realized by sequentially displaying captured image data using the image display unit 28. Further, the image display unit 28 can arbitrarily turn on / off the display according to an instruction from the system control circuit 50, and when the display is turned off, the power consumption of the camera body 100 can be significantly reduced. it can.

30は撮影した静止画像を格納するためのメモリであり、所定枚数の静止画像を格納するのに十分な記憶容量を備えている。これにより、複数枚の静止画像を連続して撮影する連写撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。また、動画撮影時には、所定レートで連続的に書き込まれる画像のフレームバッファとして使用される。さらに、メモリ30はシステム制御回路50の作業領域としても使用することが可能である。   Reference numeral 30 denotes a memory for storing captured still images, which has a storage capacity sufficient to store a predetermined number of still images. This makes it possible to write a large amount of images to the memory 30 at high speed even in continuous shooting or panoramic shooting in which a plurality of still images are continuously shot. In moving image shooting, it is used as a frame buffer for images written continuously at a predetermined rate. Further, the memory 30 can be used as a work area for the system control circuit 50.

32は公知の圧縮方法を用いて画像データを圧縮・伸長する圧縮・伸長回路である。圧縮・伸長回路32は、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータを再びメモリ30に書き込む。   A compression / decompression circuit 32 compresses / decompresses image data using a known compression method. The compression / decompression circuit 32 reads an image stored in the memory 30, performs a compression process or an expansion process, and writes the processed data to the memory 30 again.

40はシャッター制御部であり、測光制御部46からの測光情報に基づいて絞り312を制御する絞り制御部340と連携しながらシャッター12を制御する。42はAF(オートフォーカス)処理を行うための焦点調節部である。レンズユニット300内の撮像レンズ310に入射した光線を絞り312、レンズマウント306、106、ミラー130及び焦点調節用サブミラー(不図示)を介して一眼レフ方式で入射することにより、光学像として結像された画像の合焦状態を測定する。   Reference numeral 40 denotes a shutter control unit that controls the shutter 12 in cooperation with an aperture control unit 340 that controls the aperture 312 based on photometric information from the photometry control unit 46. A focus adjusting unit 42 performs AF (autofocus) processing. A light beam incident on the imaging lens 310 in the lens unit 300 is incident as a single lens reflex system through a diaphragm 312, lens mounts 306 and 106, a mirror 130, and a focus adjustment sub-mirror (not shown), thereby forming an optical image. The in-focus state of the captured image is measured.

46はAE(自動露出)処理を行うための測光制御部である。レンズユニット300内の撮像レンズ310に入射した光線を、絞り312、レンズマウント306、106、ミラー130及び測光用サブミラー(図示せず)を介して一眼レフ方式で入射することにより、光学像として結像された画像の露出状態を測定する。48はフラッシュであり、AF補助光の投光機能、フラッシュ調光機能も有する。測光制御部46はフラッシュ48と連携することにより、EF(フラッシュ調光)処理機能も有する。   A photometry control unit 46 performs AE (automatic exposure) processing. A light beam incident on the imaging lens 310 in the lens unit 300 is incident as a single-lens reflex system through a diaphragm 312, lens mounts 306 and 106, a mirror 130, and a photometric sub-mirror (not shown), thereby forming an optical image. Measure the exposure of the image. A flash 48 has an AF auxiliary light projecting function and a flash light control function. The photometry control unit 46 also has an EF (flash dimming) processing function in cooperation with the flash 48.

また、焦点調節部42による測定結果と、A/D変換器16からの画像データを画像処理回路20によって演算した演算結果とを用いて、AF制御を行うようにしてもよい。さらに、測光制御部46による測定結果と、A/D変換器16からの画像データを画像処理回路20によって演算した演算結果とを用いて露出制御を行うようにしてもよい。   Further, the AF control may be performed using the measurement result by the focus adjustment unit 42 and the calculation result obtained by calculating the image data from the A / D converter 16 by the image processing circuit 20. Furthermore, exposure control may be performed using the measurement result obtained by the photometry control unit 46 and the calculation result obtained by calculating the image data from the A / D converter 16 by the image processing circuit 20.

50はカメラ本体100全体を制御するシステム制御回路であり、周知のCPUなどを内蔵する。52はシステム制御回路50の動作用の定数、変数、プログラム等を記憶するメモリである。   Reference numeral 50 denotes a system control circuit that controls the entire camera body 100, and incorporates a known CPU. A memory 52 stores constants, variables, programs, and the like for operating the system control circuit 50.

54はシステム制御回路50でのプログラムの実行に応じて、文字、画像、音声などを用いて動作状態やメッセージなどを外部に通知するための通知部である。通知部54としては、例えばLCDやLEDなどによる視覚的な表示を行う表示部や音声による通知を行う発音素子などが用いられるが、これらのうち1つ以上の組み合わせにより構成される。特に、表示部の場合には、例えば外部表示装置409のようにカメラ本体100の操作部70近辺で、視認しやすい、単数あるいは複数箇所に設置されている。また、通知部54は、その一部の機能が光学ファインダ104内に設置されている。   Reference numeral 54 denotes a notification unit for notifying the outside of an operation state, a message, and the like using characters, images, sounds, and the like in accordance with execution of a program in the system control circuit 50. As the notification unit 54, for example, a display unit that performs visual display using an LCD, an LED, or the like, or a sound generation element that performs voice notification, etc., is used, and the notification unit 54 is configured by a combination of one or more of these. In particular, in the case of a display unit, for example, as in the case of the external display device 409, the display unit is installed at a single or a plurality of locations in the vicinity of the operation unit 70 of the camera body 100, which is easy to see. In addition, the notification unit 54 has a part of its functions installed in the optical viewfinder 104.

通知部54の表示内容の内、LCDなどの画像表示部28に表示するものとしては以下のものがある。まず、単写/連写撮影表示、セルフタイマ表示等、撮影モードに関する表示がある。また、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示等の記録に関する表示がある。また、シャッター速度表示、絞り値表示、露出補正表示、調光補正表示、外部フラッシュ発光量表示、赤目緩和表示等の撮影条件に関する表示がある。その他に、マクロ撮影表示、ブザー設定表示、電池残量表示、エラー表示、複数桁の数字による情報表示、記録媒体200及びPC210の着脱状態表示がある。更に、レンズユニット300の着脱状態表示、通信I/F動作表示、日付・時刻表示、外部コンピュータとの接続状態を示す表示等も行われる。   Among the display contents of the notification unit 54, the following are displayed on the image display unit 28 such as an LCD. First, there are displays relating to shooting modes such as single-shot / continuous-shot shooting display, self-timer display, and the like. In addition, there are displays relating to recording such as compression rate display, recording pixel number display, recording number display, and remaining image number display. In addition, there are displays relating to photographing conditions such as shutter speed display, aperture value display, exposure correction display, dimming correction display, external flash emission amount display, and red-eye reduction display. In addition, there are a macro shooting display, a buzzer setting display, a battery remaining amount display, an error display, an information display with a multi-digit number, and a recording medium 200 and PC 210 attachment / detachment state display. Furthermore, the attachment / detachment state display of the lens unit 300, the communication I / F operation display, the date / time display, the display indicating the connection state with the external computer, and the like are also performed.

また、通知部54の表示内容のうち、光学ファインダ104内に表示するものとしては、例えば、以下のものがある。合焦表示、撮影準備完了表示、手振れ警告表示、フラッシュ充電表示、フラッシュ充電完了表示、シャッター速度表示、絞り値表示、露出補正表示、記録媒体書き込み動作表示等である。   In addition, among the display contents of the notification unit 54, examples of what is displayed in the optical finder 104 include the following. In-focus display, shooting preparation completion display, camera shake warning display, flash charge display, flash charge completion display, shutter speed display, aperture value display, exposure correction display, recording medium writing operation display, and the like.

56は後述するプログラムなどが格納された電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。   Reference numeral 56 denotes an electrically erasable / recordable non-volatile memory in which programs and the like to be described later are stored. For example, an EEPROM or the like is used.

60、62、64、66、68、及び70は、システム制御回路50の各種の動作指示を入力するための操作手段であり、スイッチやダイヤル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。   Reference numerals 60, 62, 64, 66, 68, and 70 denote operation means for inputting various operation instructions of the system control circuit 50. A single unit such as a switch, a dial, a touch panel, pointing by line-of-sight detection, a voice recognition device, or the like. Alternatively, it is composed of a plurality of combinations.

ここで、これらの操作手段の具体的な説明を行う。   Here, a specific description of these operating means will be given.

60はモードダイヤルで、自動撮影モード、プログラム撮影モード、シャッター速度優先撮影モード、絞り優先撮影モード、マニュアル撮影モード、焦点深度優先(デプス)撮影モード等の各機能撮影モードを切り替え設定することができる。他に、ポートレート撮影モード、風景撮影モード、接写撮影モード、スポーツ撮影モード、夜景撮影モード、パノラマ撮影モード、動画撮影モードなどの各機能撮影モードを切り替え設定することもできる。   Reference numeral 60 denotes a mode dial, which can switch and set various function shooting modes such as an automatic shooting mode, a program shooting mode, a shutter speed priority shooting mode, an aperture priority shooting mode, a manual shooting mode, and a depth of focus priority (depth) shooting mode. . In addition, each function shooting mode such as portrait shooting mode, landscape shooting mode, close-up shooting mode, sports shooting mode, night view shooting mode, panoramic shooting mode, and moving image shooting mode can be switched and set.

62はシャッタースイッチSW1で、レリーズボタン114の操作途中(例えば半押し)でONとなり、AF処理、AE処理、AWB処理、EF処理等の動作開始を指示する。   Reference numeral 62 denotes a shutter switch SW1, which is turned ON during the operation of the release button 114 (for example, half-pressed), and instructs to start operations such as AF processing, AE processing, AWB processing, and EF processing.

64はシャッタースイッチSW2で、レリーズボタン114の操作完了(例えば全押し)でONとなり、露光処理、現像処理、及び記録処理からなる一連の処理の動作開始を指示する。まず、露光処理では、撮像素子14から読み出した信号をA/D変換器16、メモリ制御回路22を介してメモリ30に書き込み、更に、画像処理回路20やメモリ制御回路22での演算を用いた現像処理が行われる。更に、記録処理では、メモリ30から画像データを読み出し、圧縮・伸張回路32で圧縮を行い、記録媒体200あるいはPC210に書き込む、または送信する。   Reference numeral 64 denotes a shutter switch SW2, which is turned on when the operation of the release button 114 is completed (for example, fully pressed), and instructs the start of a series of processing including exposure processing, development processing, and recording processing. First, in the exposure process, a signal read from the image sensor 14 is written to the memory 30 via the A / D converter 16 and the memory control circuit 22, and further, an operation in the image processing circuit 20 and the memory control circuit 22 is used. Development processing is performed. Further, in the recording process, the image data is read from the memory 30, compressed by the compression / decompression circuit 32, and written or transmitted to the recording medium 200 or the PC 210.

66は再生スイッチであり、撮影モード状態で撮影した画像をメモリ30あるいは記録媒体200、PC210から読み出して画像表示部28に表示する再生動作の開始を指示する。他に、再生モード、マルチ画面再生・消去モード、PC接続モード等の各機能モードを設定することができる。   Reference numeral 66 denotes a playback switch, which instructs to start a playback operation for reading an image shot in the shooting mode state from the memory 30, the recording medium 200, or the PC 210 and displaying it on the image display unit 28. In addition, each function mode such as a playback mode, a multi-screen playback / erase mode, and a PC connection mode can be set.

68は単写/連写スイッチで、シャッタースイッチSW2(64)を押した場合に、1コマの撮影を行って待機状態とする単写モードと、シャッタースイッチSW2(64)を押している間、連続して撮影を行い続ける連写モードとを設定することができる。   68 is a single-shot / continuous-shot switch. When the shutter switch SW2 (64) is pressed, a single-shot mode in which one frame is shot and the camera is in a standby state, and while the shutter switch SW2 (64) is being pressed, continuous shooting is performed. The continuous shooting mode can be set.

70は各種ボタンやタッチパネルなどから成る操作部である。一例として、ライブビュー開始/停止ボタン、動画記録開始/停止ボタン、メニューボタン124、SETボタン117、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り換えボタン、十字配置スイッチ116、AE(自動露出)ロックボタン112、AFの測距点選択ボタン113、電子ダイヤル411を含む。更に、再生画像移動+(プラス)ボタン、再生画像移動−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、調光補正ボタン、外部フラッシュ発光量設定ボタン、日付/時間設定ボタンなども含む。なお、上記十字配置スイッチ116の上下左右のボタンの各機能は、回転ダイヤルスイッチを備えることによって、より軽快に数値や機能を選択することが可能となる。   An operation unit 70 includes various buttons and a touch panel. As an example, a live view start / stop button, a moving image recording start / stop button, a menu button 124, a SET button 117, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, and a cross switch 116, an AE (automatic exposure) lock button 112, an AF AF point selection button 113, and an electronic dial 411. Furthermore, a playback image movement + (plus) button, a playback image movement-(minus) button, a photographing image quality selection button, an exposure correction button, a light adjustment correction button, an external flash emission amount setting button, a date / time setting button, and the like are also included. The functions of the up / down / left / right buttons of the cross-arrangement switch 116 can be more easily selected by providing a rotary dial switch.

また、画像表示部28のON/OFFを設定する画像表示ON/OFFスイッチ、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定するクイックレビューON/OFFスイッチがある。また、JPEG圧縮の圧縮率を選択するため、あるいは撮像素子の信号をそのままデジタル化して記録媒体に記録するRAWモードを選択するためのスイッチである圧縮モードスイッチがある。また、ワンショットAFモードとサーボAFモードとを設定可能なAFモード設定スイッチなどがある。ワンショットAFモードでは、シャッタースイッチSW1(62)を押した際にオートフォーカス動作を開始し、一旦合焦した場合、その合焦状態を保ち続ける。サーボAFモードでは、シャッタースイッチSW1(62)を押している間、連続してオートフォーカス動作を続ける。更に、後述するようにゴミ検出用画像を撮影してゴミ情報を取得する、ゴミ情報取得モードを設定することができる設定スイッチを含む。   In addition, there is an image display ON / OFF switch for setting ON / OFF of the image display unit 28, and a quick review ON / OFF switch for setting a quick review function for automatically reproducing image data taken immediately after shooting. Further, there is a compression mode switch that is a switch for selecting a compression rate for JPEG compression or for selecting a RAW mode in which a signal from an image sensor is directly digitized and recorded on a recording medium. In addition, there is an AF mode setting switch that can set a one-shot AF mode and a servo AF mode. In the one-shot AF mode, an autofocus operation is started when the shutter switch SW1 (62) is pressed, and once focused, the focused state is maintained. In the servo AF mode, the autofocus operation is continued while the shutter switch SW1 (62) is being pressed. Further, as will be described later, it includes a setting switch that can set a dust information acquisition mode for capturing dust information by capturing dust detection images.

72は電源スイッチであり、カメラ本体100の電源オン、電源オフの各モードを切り替え設定することができる。また、カメラ本体100に接続されたレンズユニット300、外部フラッシュ112、記録媒体200、PC210等の各種付属装置の電源オン、電源オフの設定も合わせて切り替え設定可能である。   Reference numeral 72 denotes a power switch, which can switch and set the power-on and power-off modes of the camera body 100. Also, the power on and power off settings of various accessory devices such as the lens unit 300, the external flash 112, the recording medium 200, and the PC 210 connected to the camera body 100 can be switched.

80は電源制御部で、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されている。電源制御部80は、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御回路50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。   A power control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like. The power supply control unit 80 detects the presence / absence of a battery, the type of battery, and the remaining battery level, controls the DC-DC converter based on the detection result and the instruction of the system control circuit 50, and requires the necessary voltage. It is supplied to each part including the recording medium for a period.

82、84はコネクタ、86はアルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池、Li‐ion電池、Liポリマー電池等の二次電池、ACアダプター等からなる電源部である。   Reference numerals 82 and 84 denote connectors, and 86 denotes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, NiMH battery, Li-ion battery, or Li polymer battery, an AC adapter, or the like.

90及び94はメモリカードやハードディスク等の記録媒体やPCとのインタフェース、92及び96はメモリカードやハードディスク等の記録媒体やPCと接続を行うコネクタである。98はコネクタ92及び/或いは96に記録媒体200或いはPC210が装着されているか否かを検知する記録媒体着脱検知回路である。   Reference numerals 90 and 94 denote recording media such as a memory card and a hard disk, and an interface with a PC. Reference numerals 92 and 96 denote connectors for connecting the recording medium such as a memory card and a hard disk and the PC. A recording medium attachment / detachment detection circuit 98 detects whether the recording medium 200 or the PC 210 is attached to the connectors 92 and / or 96.

なお、本実施形態では記録媒体を取り付けるインタフェース及びコネクタを2系統持つものとして説明しているが、記録媒体を取り付けるインタフェース及びコネクタは、単数或いは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインタフェース及びコネクタを組み合わせて備える構成としても構わない。   Although the present embodiment has been described as having two systems of interfaces and connectors for attaching the recording medium, the interface and connectors for attaching the recording medium may have a single or a plurality of systems. Moreover, it is good also as a structure provided with combining the interface and connector of a different standard.

インタフェース及びコネクタとしては、種々の記憶媒体の規格に準拠したものを用いて構成することが可能である。例えば、PCMCIA(Personal Computer Memory Card International Association)カードやCF(コンパクトフラッシュ(登録商標))カード、SDカード等である。インタフェース90及び94、そしてコネクタ92及び96をPCMCIAカードやCFカード等の規格に準拠したものを用いて構成した場合、各種通信カードを接続することができる。通信カードとしては、LANカードやモデムカード、USB(Universal Serial Bus)カード、IEEE(Institute of Electrical and Electronic Engineers)1394カードがある。他にも、P1284カード、SCSI(Small Computer System Interface)カード、PHS等がある。これら各種通信カードを接続することにより、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。   As the interface and the connector, it is possible to configure using interfaces that comply with various storage medium standards. For example, a PCMCIA (Personal Computer Memory Card International Association) card, a CF (Compact Flash (registered trademark)) card, an SD card, or the like. When the interfaces 90 and 94 and the connectors 92 and 96 are configured using a standard conforming to a PCMCIA card or a CF card, various communication cards can be connected. Communication cards include LAN cards, modem cards, USB (Universal Serial Bus) cards, and IEEE (Institute of Electrical and Electronic Engineers) 1394 cards. In addition, there are P1284 card, SCSI (Small Computer System Interface) card, PHS, and the like. By connecting these various communication cards, image data and management information attached to the image data can be transferred to and from other computers and peripheral devices such as a printer.

光学ファインダ104には、撮像レンズ310に入射した光線を、一眼レフ方式によって、絞り312、レンズマウント306、106、ミラー130、132を介して導き、光学像として結像させて表示することができる。これにより、画像表示部28による電子ファインダ機能を使用すること無しに、光学ファインダのみを用いて撮影を行うことが可能である。また、光学ファインダ104内には、通知部54の一部の機能、例えば、合焦状態、手振れ警告、フラッシュ充電、シャッター速度、絞り値、露出補正などが表示される。   The optical viewfinder 104 can guide the light beam incident on the imaging lens 310 through the diaphragm 312, the lens mounts 306 and 106, and the mirrors 130 and 132 by the single-lens reflex method, and can display the image as an optical image. . Thus, it is possible to take an image using only the optical viewfinder without using the electronic viewfinder function of the image display unit 28. Further, in the optical viewfinder 104, some functions of the notification unit 54, for example, in-focus state, camera shake warning, flash charging, shutter speed, aperture value, exposure correction, and the like are displayed.

112は、アクセサリシュー110を介して装着される、外部フラッシュ装置である。   Reference numeral 112 denotes an external flash device mounted via the accessory shoe 110.

120はレンズマウント106内でカメラ本体100をレンズユニット300と接続するためのインターフェースである。   Reference numeral 120 denotes an interface for connecting the camera body 100 to the lens unit 300 in the lens mount 106.

122はカメラ本体100をレンズユニット300と電気的に接続するコネクタである。また、レンズマウント106及びコネクタ122にレンズユニット300が装着されているか否かは、不図示のレンズ着脱検知部により検知される。コネクタ122はカメラ本体100とレンズユニット300との間で制御信号、状態信号、データ信号などを伝え合うと共に、各種電圧の電流を供給する機能も備えている。   A connector 122 electrically connects the camera body 100 to the lens unit 300. Further, whether or not the lens unit 300 is attached to the lens mount 106 and the connector 122 is detected by a lens attachment / detachment detection unit (not shown). The connector 122 transmits a control signal, a status signal, a data signal, and the like between the camera body 100 and the lens unit 300, and has a function of supplying currents of various voltages.

コネクタ122を介して通信される、レンズユニット300の各種光学情報(絞り、ズーム位置、瞳位置、焦点距離など)は、カメラ本体100のメモリ30に記憶される。通信の要求はカメラ本体100側から行う場合もあれば、レンズユニット300側から情報更新のたびに通信される場合もある。   Various optical information (aperture, zoom position, pupil position, focal length, etc.) of the lens unit 300 communicated via the connector 122 is stored in the memory 30 of the camera body 100. The communication request may be made from the camera body 100 side, or may be communicated from the lens unit 300 side every time information is updated.

また、コネクタ122は電気通信だけでなく、光通信、音声通信などを伝達する構成としてもよい。   Further, the connector 122 may be configured to transmit not only electrical communication but also optical communication, voice communication, and the like.

200はメモリカードやハードディスク等の記録媒体である。この記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、カメラ本体100とのインタフェース204、カメラ本体100と接続を行うコネクタ206を備えている。   Reference numeral 200 denotes a recording medium such as a memory card or a hard disk. The recording medium 200 includes a recording unit 202 composed of a semiconductor memory, a magnetic disk, and the like, an interface 204 with the camera body 100, and a connector 206 that connects to the camera body 100.

記録媒体200としては、PCMCIAカードやコンパクトフラッシュ(登録商標)等のメモリカード、ハードディスク等を用いることができる。また、マイクロDAT、光磁気ディスク、CD−RやCD−RW等の光ディスク、DVD等の相変化型光ディスク等で構成されていても勿論構わない。   As the recording medium 200, a memory card such as a PCMCIA card or compact flash (registered trademark), a hard disk, or the like can be used. Of course, it may be composed of a micro DAT, a magneto-optical disk, an optical disk such as a CD-R or CD-RW, a phase change optical disk such as a DVD.

210はPCであり、磁気ディスク(HD)等から構成される記録部212、カメラ本体100とのインタフェース214、カメラ本体100と接続を行うコネクタ216を備えている。インターフェース94はUSBやIEEE1394などが挙げられるが、特に限定はない。   Reference numeral 210 denotes a PC, which includes a recording unit 212 composed of a magnetic disk (HD) or the like, an interface 214 with the camera body 100, and a connector 216 for connecting with the camera body 100. Examples of the interface 94 include USB and IEEE1394, but are not particularly limited.

(ゴミ検出処理)
本実施形態では、まず、撮像素子14の前方に配置された光学ローパスフィルタ418に付着したゴミ(異物)の情報(撮像画面内のゴミの情報)であるゴミ情報(異物情報)を得るためのゴミ検出用画像(異物検出用画像信号)を撮影する。そして、ゴミデータを抽出し、ゴミ補正データ(ゴミ情報プロファイル)を生成しておく。ここでゴミ検出用画像は、できるだけ均一な輝度面を撮影した画像が望ましいが、身近な場所で容易に撮影できることが望ましいため、厳密な均一性を要求するものではない。例えば、青空や白い壁面を撮影することを想定している。
(Dust detection process)
In the present embodiment, first, dust information (foreign matter information) that is information on dust (foreign matter) attached to the optical low-pass filter 418 arranged in front of the image sensor 14 (information on dust in the imaging screen) is obtained. A dust detection image (foreign object detection image signal) is taken. Then, dust data is extracted and dust correction data (dust information profile) is generated. Here, the dust detection image is preferably an image obtained by photographing a luminance surface that is as uniform as possible. However, since it is desirable that the dust detection image can be easily photographed in a familiar place, strict uniformity is not required. For example, it is assumed that a blue sky or a white wall is photographed.

まず、光学ローパスフィルタ418に付着したゴミの位置を検出する処理の例を、図4のフローチャートを用いて説明する。この処理は、システム制御回路50が不揮発性メモリ56に記憶されたゴミ検出処理プログラムを実行することにより実施される。   First, an example of processing for detecting the position of dust attached to the optical low-pass filter 418 will be described with reference to the flowchart of FIG. This processing is performed by the system control circuit 50 executing a dust detection processing program stored in the nonvolatile memory 56.

ゴミ検出処理は、ゴミ検出用画像を撮像することにより行われる。ゴミ検出処理を行う場合、面光源装置の射出面や白い壁などの均一な色を持つ面にレンズユニット300の撮影光軸401を向けてカメラを設置し、ゴミ検出の準備を行なう。または、レンズマウント106にゴミ検出用のライトユニット(レンズの代わりに装着する小型の点光源装置)を装着し、ゴミ検出の準備を行う。ライトユニットの光源は例えば白色LEDが考えられ、発光面のサイズを予め定めた絞り値(例えば、F32)相当になるように調整するのが望ましい。   The dust detection process is performed by capturing a dust detection image. When performing dust detection processing, a camera is installed with the photographing optical axis 401 of the lens unit 300 facing a surface having a uniform color, such as an emission surface of a surface light source device or a white wall, and preparation for dust detection is performed. Alternatively, a dust detection light unit (a small point light source device mounted instead of a lens) is mounted on the lens mount 106 to prepare for dust detection. For example, a white LED is considered as the light source of the light unit, and it is desirable to adjust the size of the light emitting surface so as to correspond to a predetermined aperture value (for example, F32).

本実施形態では、通常の撮影レンズを用いた場合について説明するが、上記のライトユニットをレンズマウント106に取り付けてゴミ検出を行っても良い。このように、本実施形態においてゴミ検出用画像は、均一な色を有する画像である。   In this embodiment, a case where a normal photographing lens is used will be described. However, dust detection may be performed by attaching the light unit to the lens mount 106. Thus, in this embodiment, the dust detection image is an image having a uniform color.

準備が終了した後、十字配置スイッチ116からゴミ検出処理の開始が指示されると、システム制御回路50は、まず絞りの設定を行う。撮像素子近傍のゴミはレンズの絞り値によって結像状態が変わり、レンズの瞳位置によって位置が変化する。したがって、ゴミ補正データにはゴミの位置や大きさに加え、検出時の絞り値とレンズの瞳位置を保持する必要がある。   After the preparation is completed, when the start of dust detection processing is instructed from the cross arrangement switch 116, the system control circuit 50 first sets the aperture. The image formation state of dust near the image sensor changes depending on the aperture value of the lens, and the position changes depending on the pupil position of the lens. Therefore, in the dust correction data, in addition to the position and size of dust, it is necessary to hold the aperture value at the time of detection and the pupil position of the lens.

ただし、ゴミ補正データを作成する段階で、異なるレンズを用いたとしても常に同じ絞り値を使うことを予め決めておけば、必ずしもゴミ補正データ内に絞り値を保持する必要はない。また、瞳位置に関してもライトユニットを用いたり、特定のレンズのみの使用を許可することで、同様に必ずしもゴミ補正データ内に瞳位置を保持する必要はなくなる。   However, it is not always necessary to hold the aperture value in the dust correction data if it is determined in advance that the same aperture value is always used even when different lenses are used at the stage of creating dust correction data. Similarly, by using a light unit or permitting the use of only a specific lens for the pupil position, it is not always necessary to hold the pupil position in the dust correction data.

つまり、ゴミ補正データを作成する段階において、使用するレンズを複数許したり、絞り込む絞り値を適宜変更する場合には、検出時の絞り値とレンズの瞳位置を、ゴミ補正データ内に保持する必要があると言える。なお、ここで瞳位置とは、射出瞳の撮像面(焦点面)からの距離をいう。   In other words, at the stage of creating dust correction data, if you want to allow multiple lenses to use or change the aperture value to narrow down appropriately, it is necessary to keep the aperture value and lens pupil position at the time of detection in the dust correction data It can be said that there is. Here, the pupil position refers to the distance from the imaging plane (focal plane) of the exit pupil.

ここでは、例えばF22を指定する(ステップS21)。   Here, for example, F22 is designated (step S21).

次にシステム制御回路50はコネクタ122を介して絞り制御部340に対し、レンズユニット300の絞り羽根制御を行わせ、ステップS21で指定された絞り値に絞りを設定する(ステップS22)。さらに、フォーカス制御部342に指示して、フォーカス位置を無限遠に設定する(ステップS23)。   Next, the system control circuit 50 causes the aperture controller 340 to control the aperture blades of the lens unit 300 via the connector 122, and sets the aperture to the aperture value specified in step S21 (step S22). Further, the focus control unit 342 is instructed to set the focus position to infinity (step S23).

撮影レンズの絞り値とフォーカス位置が設定されると、ゴミ検出モードでの撮影を実行する(ステップS24)。ステップS24で行う撮像処理ルーチンの詳細に関しては図9を用いて後に説明する。撮影された画像データは、メモリ30に格納される。   When the aperture value and focus position of the photographing lens are set, photographing in the dust detection mode is executed (step S24). Details of the imaging processing routine performed in step S24 will be described later with reference to FIG. The captured image data is stored in the memory 30.

撮影が終了すると、撮影時の絞り値とレンズ瞳位置を取得(レンズ情報取得)する(ステップS25)。画像処理回路20にメモリ30に記憶されている撮影画像の各画素に対応するデータを呼び出す(ステップS26)。画像処理回路20は、図6に示す処理を行い、ゴミが存在する画素の位置と大きさを取得する(ステップS27)。ステップS27で取得したゴミが存在する画素の位置と大きさ、およびステップS25で取得した絞り値とレンズ瞳位置情報を、不揮発性メモリ56に登録する(ステップS28)。ここで、前述したライトユニットを用いた場合には、レンズ情報を取得できない。そこで、レンズ情報が取得できない場合は、ライトユニットを使ったと判断し、予め定められたレンズ瞳位置情報と、ライトユニットの光源径から算出される換算絞り値を登録する。   When shooting is completed, the aperture value and lens pupil position at the time of shooting are acquired (lens information acquisition) (step S25). Data corresponding to each pixel of the captured image stored in the memory 30 is called into the image processing circuit 20 (step S26). The image processing circuit 20 performs the processing shown in FIG. 6 and acquires the position and size of the pixel where dust is present (step S27). The position and size of the pixel where the dust exists acquired in step S27, and the aperture value and lens pupil position information acquired in step S25 are registered in the nonvolatile memory 56 (step S28). Here, when the light unit described above is used, lens information cannot be acquired. Therefore, when the lens information cannot be acquired, it is determined that the light unit is used, and predetermined lens pupil position information and a converted aperture value calculated from the light source diameter of the light unit are registered.

ここで、ステップS28において、予め不揮発性メモリ56に記録されている製造時からの不良画素(画素欠陥)の位置と、読み出した画素データの位置を比べて画素欠陥であるかどうかを確認する。そして、画素欠陥によるものでは無いと判断された領域のみ、不揮発性メモリ56に位置を登録しても良い。   Here, in step S28, the position of the defective pixel (pixel defect) from the time of manufacture recorded in advance in the nonvolatile memory 56 is compared with the position of the read pixel data to confirm whether the pixel defect is present. Only the area determined not to be due to the pixel defect may be registered in the nonvolatile memory 56.

不揮発性メモリ56に格納されるゴミ補正データのデータ形式例を図5に示す。図5に示した通り、ゴミ補正データには、検出用画像撮影時の、レンズ情報とゴミの位置、大きさの情報が格納される。   An example of the data format of dust correction data stored in the nonvolatile memory 56 is shown in FIG. As shown in FIG. 5, the dust correction data stores lens information and dust position and size information when the detection image is captured.

具体的には、検出用画像撮影時のレンズ情報として、検出用画像撮影時における実際の絞り値(F値)と、そのときのレンズ瞳位置を格納する。続いて記憶領域に検出したゴミ領域の数(整数値)を格納し、これに続き、個々の具体的なゴミ領域のパラメータを、ゴミ領域の数だけ繰返して格納する。ゴミ領域のパラメータは、ゴミの半径(例えば2バイト)、有効画像領域における中心のx座標(例えば2バイト)、おなじく中心のy座標(例えば2バイト)の3つの数値のセットである。   Specifically, the actual aperture value (F value) at the time of detection image capture and the lens pupil position at that time are stored as lens information at the time of detection image capture. Subsequently, the number of detected dust areas (integer value) is stored in the storage area, and subsequently, individual specific dust area parameters are repeatedly stored by the number of dust areas. The parameter of the dust area is a set of three numerical values: a dust radius (for example, 2 bytes), a center x coordinate (for example, 2 bytes) in the effective image area, and a similar y coordinate (for example, 2 bytes).

不揮発性メモリ56の大きさ等によりゴミ補正データサイズに制限がある場合、ステップS27で得たゴミ領域の先頭から優先してデータを格納する。これは、ステップS27のゴミ領域取得ルーチン内では、後述するようにゴミ領域を、目立つゴミの順にソートするからである。   When the dust correction data size is limited due to the size of the nonvolatile memory 56 or the like, the data is stored with priority from the beginning of the dust area obtained in step S27. This is because in the dust area acquisition routine in step S27, the dust areas are sorted in the order of noticeable dust, as will be described later.

(ゴミ領域取得ルーチン)
次に、図6から図8を用いて、ステップS27で行うゴミ領域取得ルーチンの詳細について説明する。
(Trash area acquisition routine)
Next, details of the dust region acquisition routine performed in step S27 will be described with reference to FIGS.

図7に示すように、呼び出した画像データをメモリ30上に展開し、予め定められたブロック単位で処理を行う。これは、レンズやセンサ特性に起因する周辺減光に対応するためである。周辺減光とは、レンズの中央部に比べ周辺部の輝度が落ちてしまう現象であり、レンズの絞りを小さくすることである程度軽減されることが知られている。しかし、絞りを絞った状態でも、撮影画像に対して予め定められたスレッショルド値でゴミ位置の判定を行うと、レンズによっては周辺部のゴミが正確に検出できなくなるという問題がある。そこで、画像をブロック分割して周辺減光の影響を軽減する。   As shown in FIG. 7, the called image data is expanded on the memory 30 and processed in units of predetermined blocks. This is to cope with peripheral dimming caused by lens and sensor characteristics. Peripheral dimming is a phenomenon in which the luminance at the peripheral portion is lower than that at the central portion of the lens, and it is known that it is reduced to some extent by reducing the aperture of the lens. However, there is a problem that even if the aperture is reduced, if the dust position is determined based on a predetermined threshold value for the photographed image, dust in the peripheral portion cannot be detected accurately depending on the lens. Therefore, the image is divided into blocks to reduce the influence of peripheral dimming.

単純にブロック分割すると、ブロックとブロックの間でスレッショルド値が異なる場合、ブロック間をまたぐゴミの検出結果がずれてしまうという問題がある。そこで、ブロック間をオーバーラップさせ、オーバーラップ領域を構成するブロックのいずれかでゴミと判定された画素をゴミ領域として扱う。   When the blocks are simply divided, there is a problem that the detection result of the dust straddling the blocks is shifted when the threshold values are different between the blocks. Therefore, the blocks are overlapped, and pixels determined to be dust in any of the blocks constituting the overlap region are treated as dust regions.

ブロック内のゴミ領域判定は、図6に示す処理の流れで行う。まず、ブロック内の最大輝度Lmax、平均輝度Laveを算出し、次式を用いてブロック内のスレッショルド値T1を算出する。   The determination of the dust area in the block is performed according to the processing flow shown in FIG. First, the maximum luminance Lmax and average luminance Lave in the block are calculated, and the threshold value T1 in the block is calculated using the following equation.

T1=Lave×0.6+Lmax×0.4
次に、スレッショルド値を超えない画素をゴミ画素とし(ステップS61)、ゴミ画素によって構成される孤立領域を各々一つのゴミ領域di(i=0,1,…,n)とする(ステップS62)。図8に示すように、ゴミ領域毎に、ゴミ領域を構成する画素の水平方向の座標の最大値Xmaxおよび最小値Xmin、垂直方向の座標の最大値Ymaxおよび最小値Yminを求め、ゴミ領域diのサイズを表す半径riを次式によって算出する(ステップS63)。
T1 = Lave × 0.6 + Lmax × 0.4
Next, pixels that do not exceed the threshold value are defined as dust pixels (step S61), and isolated regions constituted by dust pixels are each defined as one dust region di (i = 0, 1,..., N) (step S62). . As shown in FIG. 8, for each dust region, the maximum value Xmax and the minimum value Xmin of the horizontal coordinate of the pixels constituting the dust region, the maximum value Ymax and the minimum value Ymin of the vertical coordinate are obtained, and the dust region di is obtained. A radius ri representing the size of is calculated by the following equation (step S63).

ri=√[{(Xmax−Xmin)/2}2+{(Ymax−Ymin)/2}2]
Xmax、Xmin、Ymax、Yminとriの関係を、図8に示す。
ri = √ [{(Xmax−Xmin) / 2} 2 + {(Ymax−Ymin) / 2} 2 ]
FIG. 8 shows the relationship between Xmax, Xmin, Ymax, Ymin and ri.

その後ステップS64で、ゴミ領域毎の平均輝度値を算出する。   Thereafter, in step S64, an average luminance value for each dust region is calculated.

不揮発性メモリ56のサイズによる制限などにより、ゴミ補正データのデータサイズが制限されている場合がある。このような場合に対応するために、ゴミ位置情報を、大きさやゴミ領域の平均輝度値によってソートする(ステップS65)。本実施形態では、riの大きい順にソートする。riが等しい場合、平均輝度値の低い順にソートする。このようにすることで、目立つゴミを優先してゴミ補正データに登録することが出来る。なお、ソート済みのゴミ領域をDi、ゴミ領域Diの半径をRiとする。   The data size of the dust correction data may be limited due to the limitation due to the size of the nonvolatile memory 56 or the like. In order to cope with such a case, the dust position information is sorted according to the size and the average luminance value of the dust region (step S65). In this embodiment, sorting is performed in descending order of ri. When ri is equal, the sort is performed in ascending order of the average luminance value. In this way, it is possible to preferentially register noticeable dust in the dust correction data. The sorted dust area is Di, and the radius of the dust area Di is Ri.

なお、予め定められたサイズより大きいゴミ領域がある場合、ソートの対象から外し、ソート済みゴミ領域リストの末尾に配置しても良い。大きいゴミ領域については、後に補間処理をするとかえって画質を低下させる場合があり、補正対象の優先順位としては最下位として扱うことが望ましいからである。   If there is a dust area larger than a predetermined size, it may be excluded from sorting and placed at the end of the sorted dust area list. This is because a large dust region may lower the image quality if interpolation processing is performed later, and is preferably treated as the lowest priority for correction.

(撮像処理ルーチン)
次に、図9に示すフローチャートを用いて、図4のステップS24で行われる撮像処理ルーチンの詳細について説明する。この処理はシステム制御回路50が不揮発性メモリ56に記憶された撮像処理プログラムを実行することにより実施される。
(Imaging processing routine)
Next, the details of the imaging processing routine performed in step S24 of FIG. 4 will be described using the flowchart shown in FIG. This process is performed by the system control circuit 50 executing an imaging process program stored in the nonvolatile memory 56.

この撮像処理ルーチンが実行されると、ステップS201でシステム制御回路50は、図2及び図3に示すミラー130を作動させ、いわゆるミラーアップを行い、撮影光路外にミラー130を退避させる。   When this imaging processing routine is executed, in step S201, the system control circuit 50 operates the mirror 130 shown in FIGS. 2 and 3, performs so-called mirror-up, and retracts the mirror 130 out of the imaging optical path.

次に、ステップS202で撮像素子14での電荷蓄積を開始し、次のステップS203では図3に示したシャッター12をそれぞれ走行させて露光を行う。そして、ステップS204で撮像素子14の電荷蓄積を終了し、次のステップS205で撮像素子14から画像信号を読み出してA/D変換器16および画像処理回路20で処理した画像データをメモリ30に一次記憶する。   Next, in step S202, charge accumulation in the image sensor 14 is started, and in the next step S203, the shutter 12 shown in FIG. In step S204, the charge accumulation of the image sensor 14 is terminated. In the next step S205, the image signal is read from the image sensor 14, and the image data processed by the A / D converter 16 and the image processing circuit 20 is temporarily stored in the memory 30. Remember.

次のステップS206で撮像素子14から全ての画像信号の読み出しが終了すると、ステップS207でミラー130をミラーダウンし、ミラーを斜設位置に戻して一連の撮像動作を終了する。   When the reading of all image signals from the image sensor 14 is completed in the next step S206, the mirror 130 is mirrored down in step S207, the mirror is returned to the oblique position, and a series of imaging operations is completed.

ステップS208にて、通常撮影かゴミ検出用画像撮影かを判断し、通常撮影時にはステップS209へ進んで、撮影した画像が記録媒体200に記録される。   In step S208, it is determined whether normal shooting or dust detection image shooting is performed. When normal shooting is performed, the process proceeds to step S209, and the shot image is recorded on the recording medium 200.

(ゴミ除去処理)
次に、上述のゴミ補正データを用いて、静止画像ファイルに対して画像処理によりゴミ除去を行う動作の流れについて、図10を用いて説明する。本実施形態は、動画像ファイルに対してゴミ除去処理を行うものであるが、動画像ファイルに対しても静止画像ファイルに対するゴミ除去処理と同様の手法を適用することができるので、静止画像ファイルに対するゴミ除去処理について説明する。
(Dust removal process)
Next, a flow of operations for removing dust by image processing on a still image file using the dust correction data described above will be described with reference to FIG. In the present embodiment, dust removal processing is performed on a moving image file. However, a method similar to dust removal processing on a still image file can be applied to a moving image file. Debris removal processing will be described.

まず、ゴミ除去処理を行う静止画像ファイルを指定し、ゴミ除去処理を行う装置(カメラ内の画像処理回路20でもよいしカメラ外部の画像処理装置でもよい)に読み込ませる(ステップS1801)。   First, a still image file to be subjected to dust removal processing is designated, and is read by a device that performs dust removal processing (either the image processing circuit 20 in the camera or an image processing device outside the camera) (step S1801).

次に、ゴミ除去処理を行う装置が、図6のステップS65で作成したゴミ補正データを取得する(ステップS1802)。   Next, the apparatus that performs dust removal processing acquires the dust correction data created in step S65 of FIG. 6 (step S1802).

次に、ステップS1802で取得したゴミ補正データから、座標列Di(i=1,2,…n)、半径列Ri(i=1,2,…,n)、絞り値f1とレンズ瞳位置L1を得る(ステップS1803)。ここでRiは、図6のステップS65で算出した座標Diのゴミの大きさである。さらに、ステップS1804で、撮影時の絞り値f2とレンズの瞳位置L2を取得する。ステップS1805でDiを次式で変換する。ここで、dは画像中心から座標Diまでの距離、Hは撮像素子14の表面とゴミとの距離であるとする。変換後の座標Di’と変換後の半径Ri’は例えば次式で定義する。   Next, from the dust correction data acquired in step S1802, the coordinate sequence Di (i = 1, 2,... N), the radius sequence Ri (i = 1, 2,..., N), the aperture value f1, and the lens pupil position L1. Is obtained (step S1803). Here, Ri is the size of the dust at the coordinate Di calculated in step S65 of FIG. In step S1804, the aperture value f2 and the pupil position L2 of the lens are acquired. In step S1805, Di is converted by the following equation. Here, d is a distance from the image center to the coordinate Di, and H is a distance between the surface of the image sensor 14 and dust. The coordinate Di ′ after conversion and the radius Ri ′ after conversion are defined by the following equation, for example.

Di’(x,y)=(L2×(L1−H)×d/((L2−H)×L1))×Di(x,y)
Ri’=(Ri×f1/f2+3) (1)
ここでの単位はピクセルであり、Ri’についての「+3」はマージン量である。
Di ′ (x, y) = (L2 × (L1−H) × d / ((L2−H) × L1)) × Di (x, y)
Ri ′ = (Ri × f1 / f2 + 3) (1)
The unit here is a pixel, and “+3” for Ri ′ is a margin amount.

ステップS1806で座標Di’、半径Ri’で示される領域内のゴミを検出し、必要に応じて補間処理を適用する。補間処理の詳細については後述する。ステップS1807で全ての座標についてゴミ除去処理を適用したかどうかを判定し、全ての座標について処理が終わっていれば処理を終了し、そうでなければステップS1806に戻る。   In step S1806, dust in the area indicated by the coordinates Di ′ and the radius Ri ′ is detected, and interpolation processing is applied as necessary. Details of the interpolation processing will be described later. In step S1807, it is determined whether dust removal processing has been applied to all coordinates. If processing has been completed for all coordinates, the processing ends. If not, processing returns to step S1806.

次に、ゴミ領域の補間処理の詳細について説明する。図11は、補間ルーチンの流れを示すフローチャートである。   Next, details of dust region interpolation processing will be described. FIG. 11 is a flowchart showing the flow of the interpolation routine.

まずステップS1901で、ゴミ領域判定を行う。ゴミ領域とは、次の条件全てを満たす領域とする。
(1)図10のステップS1805で算出した中心座標Di’、半径Ri’(式(1)で求められたDi’,Ri’)に含まれる画素の平均輝度Yaveと最高輝度Ymaxを用いて次式で求められるスレッショルド値T2より暗い領域。
First, in step S1901, dust region determination is performed. The dust area is an area that satisfies all of the following conditions.
(1) Next, using the average luminance Yave and the maximum luminance Ymax of the pixels included in the center coordinate Di ′ and radius Ri ′ (Di ′, Ri ′ obtained in Expression (1)) calculated in step S1805 in FIG. An area darker than the threshold value T2 obtained by the equation.

T2=Yave×0.6+Ymax×0.4
(2)上記の中心座標Di’、半径Ri’の円と接しない領域。
(3)(1)で選択された輝度の低い画素によって構成される孤立領域に対し、図6中のステップS63と同様の方法で算出した半径値がl1画素以上、l2画素未満である領域。
(4)円の中心座標Diを含む領域。
T2 = Yave × 0.6 + Ymax × 0.4
(2) A region not in contact with the circle having the center coordinate Di ′ and the radius Ri ′.
(3) A region in which the radius value calculated by the same method as in step S63 in FIG. 6 is not less than l1 pixels and less than l2 pixels with respect to the isolated region constituted by the low-luminance pixels selected in (1).
(4) A region including the center coordinates Di of the circle.

本実施形態では、l1は3画素、l2は30画素とする。このようにすることで、孤立した小領域だけをゴミ領域として扱うことが可能になる。また、レンズ瞳位置が正確に取得できない場合には、(4)の条件は幅を持たせても良い。例えば、着目領域が座標DiからX方向、Y方向に夫々±3画素の範囲の座標を含めば、ゴミ領域と判定するなどという条件が考えられる。   In this embodiment, l1 is 3 pixels and l2 is 30 pixels. In this way, only an isolated small area can be handled as a dust area. If the lens pupil position cannot be obtained accurately, the condition (4) may have a width. For example, if the region of interest includes coordinates within a range of ± 3 pixels in the X direction and the Y direction from the coordinate Di, a condition such as determining as a dust region can be considered.

ステップS1902で、このような領域があればステップS1903へ進みゴミ領域補間を行い、存在しない場合は処理を終了する。ステップS1903で実行するゴミ領域補間処理は、公知の欠損領域補間法で行う。公知の欠損領域補間法には、例えば、特開2001−223894号公報に開示されているパターン置換がある。特開2001−223894号公報では赤外光を用いて欠損領域を特定しているが、本実施形態ではステップS1901で検出したゴミ領域を欠損領域として扱い、パターン置換によりゴミ領域を周囲の正常画素で補間する。パターン置換で埋められない画素については、パターン補間後の画像データに対し、補間対象画素に最も近い順に正常画素をp個選択し、その平均色を用いて補間する。   If there is such an area in step S1902, the process proceeds to step S1903, and dust area interpolation is performed. If there is no such area, the process ends. The dust region interpolation processing executed in step S1903 is performed by a known defect region interpolation method. As a known defect area interpolation method, for example, there is a pattern replacement disclosed in Japanese Patent Laid-Open No. 2001-223894. In Japanese Patent Laid-Open No. 2001-223894, a defective region is specified using infrared light. In this embodiment, the dust region detected in step S1901 is treated as a defective region, and the dust region is treated as a normal pixel by pattern replacement. Interpolate with. For pixels that are not filled by pattern replacement, p normal pixels are selected in the order closest to the interpolation target pixel from the image data after pattern interpolation, and interpolation is performed using the average color.

次に、近年デジタルカメラやデジタルビデオカメラ等で、動画像データの記録に用いられている動画ファイルフォーマットである、MP4について説明する。   Next, MP4, which is a moving image file format used in recent years for recording moving image data in digital cameras and digital video cameras, will be described.

MP4ファイル形式(ISO/IEC 14496−14;“Information technology――Coding of audio−visual objects――Part 14:MP4 file format”;ISO/IEC;2003−11−24を参照)とは、ISO/IEC JTC1/SC29/WG11(International Organization for Standardization/International Engineering Consortium)によって規格化された、MPEGなどの動画・音声のコンテンツデータをファイルに記録するために「ISO Base Media File Format」(ISO/IEC 14496−12;“Information technology――Coding of audio−visual objects――Part 12:ISO base media file format”;ISO/IEC;2004−01−23を参照)という汎用のファイル形式を元に拡張されたファイル形式である。なお、本実施形態はMP4に限らず類似のファイル形式を用いるケースに対しても適用できる。例えば、ISOではMP4と同様の基本構造を持つファイル形式規格として、「Motion JPEG 2000ファイル形式」(ISO/IEC 15444−3)や、「AVCファイル形式」(ISO/IEC 14496−15)といった標準規格が制定されている。   MP4 file format (ISO / IEC 14496-14; “Information technology—Coding of audio-visual objects—Part 14: MP4 file format”; ISO / IEC; see 2003-11-24) In order to record video / audio content data such as MPEG standardized by JTC1 / SC29 / WG11 (International Organization for Standardization / International Engineering Consortium) in a file, “ISO Base Media File 49 EC / F14” 12; “Inform tion technology - Coding of audio-visual objects - Part 12: ISO base media file format "; is a reference to 2004-01-23) file format, which has been extended on the basis of the file format of the general purpose of; ISO / IEC. Note that the present embodiment is not limited to MP4 and can be applied to a case using a similar file format. For example, ISO standard file formats such as “Motion JPEG 2000 file format” (ISO / IEC 15444-3) and “AVC file format” (ISO / IEC 14496-15) are standard file formats having the same basic structure as MP4. Has been enacted.

図12は、MP4ファイル形式におけるデータ構造を説明するための概念図である。   FIG. 12 is a conceptual diagram for explaining the data structure in the MP4 file format.

MP4ファイル1001は、映像・音声データの物理的位置、時間的位置や特性情報を示すメタデータ(ヘッダ情報)1002と、符号化された映像・音声データの実態を示すメディアデータ1003とから構成される。MP4形式では、コンテンツ全体のプレゼンテーションを「ムービー」、コンテンツを構成するメディアストリームのプレゼンテーションを「トラック」と呼んでいる。メタデータ1002には、典型的には、動画像のデータ全体を論理的に取り扱うビデオトラック1004と音声のデータ全体を論理的に取り扱うオーディオトラック1005が含まれている。そして、ビデオトラック1004とオーディオトラック1005の基本的な構成内容は、ほとんど同等のものとなっている。すなわち、それぞれのトラックは、実際のメディアデータの様々なメタデータ情報を記録しており、その内容がメディアデータの特性に応じて多少異なっているだけである。   The MP4 file 1001 is composed of metadata (header information) 1002 indicating the physical position, temporal position and characteristic information of the video / audio data, and media data 1003 indicating the actual state of the encoded video / audio data. The In the MP4 format, the presentation of the entire content is called “movie”, and the presentation of the media stream constituting the content is called “track”. The metadata 1002 typically includes a video track 1004 that logically handles the entire moving image data and an audio track 1005 that logically handles the entire audio data. The basic configuration contents of the video track 1004 and the audio track 1005 are almost the same. That is, each track records various metadata information of actual media data, and the contents thereof are only slightly different depending on the characteristics of the media data.

ビデオトラック1004に含まれるデータには、例えば、符号化データを復号化するための所謂デコーダの構成情報や動画像の矩形サイズなどの情報が含まれている。加えて、メディアデータが実際に記録されているファイル上の位置を示すオフセット1006や、メディアデータのそれぞれのフレームデータ(ピクチャと呼ばれることもある)のサイズを示すサンプルサイズ1007、それぞれのフレームデータのデコード時間を示すタイムスタンプ1008などが記録されている。   The data included in the video track 1004 includes, for example, so-called decoder configuration information for decoding encoded data and information such as a rectangular size of a moving image. In addition, an offset 1006 indicating the position on the file where the media data is actually recorded, a sample size 1007 indicating the size of each frame data (sometimes referred to as a picture) of the media data, and each frame data A time stamp 1008 indicating the decoding time is recorded.

一方、メディアデータ1003には、符号化データの基本単位を示す「サンプル」が連続して1つ以上記録されている「チャンク」と呼ばれるデータ構造により、動画像のデータと音声のデータの実体が記録されている。このチャンクは、メタデータ1002のトラックに従って、動画像のメディアデータを含むビデオチャンク1009と音声のメディアデータを含むオーディオチャンク1010とにより構成されている。   On the other hand, the media data 1003 includes moving picture data and audio data by means of a data structure called “chunk” in which one or more “samples” indicating the basic unit of encoded data are continuously recorded. It is recorded. This chunk is composed of a video chunk 1009 including moving image media data and an audio chunk 1010 including audio media data in accordance with the track of the metadata 1002.

図12に示す構成は、ビデオチャンク1009とオーディオチャンク1010が交互に記録されているように示しているが、その記録位置や順序は必ずしもこのようになっている必要はない。この例は、一般的に記録される形式の一例に過ぎない。しかしながら、このような交互の配置(インターリーブ)は、ほぼ同時刻に再生されるべき動画と音声のデータを近い位置に配置することにより、ファイルに記録されたデータのアクセス性を高めるといった効果があり、極めて一般的に見られる方法である。   The configuration shown in FIG. 12 shows that video chunks 1009 and audio chunks 1010 are recorded alternately, but the recording position and order are not necessarily in this way. This example is merely an example of a format that is generally recorded. However, such alternate arrangement (interleaving) has the effect of improving the accessibility of the data recorded in the file by arranging the video and audio data to be played back at approximately the same time at close positions. This is a very common method.

チャンクには、個々のメディアデータのサンプルがひとつ以上含まれている。例えば、図12に示すように、ビデオチャンク1009には、ビデオサンプル(フレーム)1011が連続して記録される。一般的には、このビデオサンプル(フレーム)1011は、ビデオのひとつのフレームデータ(ピクチャ)に相当する。それぞれのトラックとチャンクは次のように関連付けられている。   A chunk contains one or more samples of individual media data. For example, as shown in FIG. 12, video samples (frames) 1011 are continuously recorded in the video chunk 1009. In general, this video sample (frame) 1011 corresponds to one frame data (picture) of video. Each track and chunk is related as follows.

例えば動画像のデータの場合、ビデオトラック1004に含まれる情報は、メディアデータ1003に含まれるそれぞれのビデオチャンク1009に関する情報を含んでいる。オフセット1006は、ビデオチャンク1009のそれぞれのファイル上の相対位置を示す情報のテーブルから構成されており、テーブルの個々のエントリを参照することにより、どの位置に実際のビデオチャンクが記録されていてもその位置を知ることができる。サンプルサイズ1007は、複数のチャンク内に含まれる複数のサンプル、すなわちビデオのフレームのそれぞれのサイズをテーブルとして記載している。より正確には、個々のチャンクの中に含まれるサンプルの数を記載した情報もビデオトラック1004の中に記載されており、これらの情報から、個々のビデオチャンク1009の中に含まれるサンプルを正確に取得することが可能となっている。タイムスタンプ1008は、個々のサンプルのデコード時間をサンプル間の差分としてテーブルに記録するようになっている。このテーブルを参照することにより、それぞれのサンプルの所謂タイムスタンプを積算時間を計算することにより取得することが可能となる。このような、トラックとチャンクの関係は、オーディオトラック1005とオーディオチャンク1010についても同様に成立するよう定義されている。これによって、MP4ファイルおよびISO Base Media File Formatにおいては、メタデータ1002とメディアデータ1003により、符号化データを必要な単位で任意の位置からタイムスタンプなどの付加情報を持って取得することが出来るようになっている。なお、説明を簡単にするために、ここには規格化されているすべての記録情報については記載していない。規格化されている定義内容の詳細は、ISO/IEC 14496の該当部分を参照することで知ることができる。   For example, in the case of moving image data, the information included in the video track 1004 includes information on each video chunk 1009 included in the media data 1003. The offset 1006 is composed of a table of information indicating the relative position of each video chunk 1009 on the file, and by referring to the individual entries in the table, the actual video chunk is recorded at any position. You can know its position. The sample size 1007 describes a plurality of samples included in a plurality of chunks, that is, a size of each video frame as a table. More precisely, information describing the number of samples included in each individual chunk is also described in the video track 1004. From this information, the samples included in each individual video chunk 1009 are accurately determined. It is possible to get to. The time stamp 1008 records the decoding time of each sample in a table as a difference between samples. By referring to this table, the so-called time stamp of each sample can be obtained by calculating the accumulated time. Such a relationship between the track and the chunk is defined so that the audio track 1005 and the audio chunk 1010 are similarly established. As a result, in the MP4 file and the ISO Base Media File Format, it is possible to acquire encoded data from an arbitrary position with additional information such as a time stamp in a necessary unit using the metadata 1002 and the media data 1003. It has become. In order to simplify the explanation, all the standardized recording information is not described here. Details of the standardized definition contents can be known by referring to the corresponding part of ISO / IEC 14496.

MP4ファイル形式では、ファイルに記録されるデータは「BOX」と呼ばれるデータ構造の内部に記述され、BOXを単位としてファイルに記録される。BOXは、次のようなフィールドから構成される。
・Size:sizeフィールド自体を含む、BOX全体のサイズ。
・Type:BOXの種類を表す4バイトのタイプ識別子。通常は4文字の英数字で表される。
In the MP4 file format, data recorded in the file is described in a data structure called “BOX”, and is recorded in the file in units of BOX. The BOX is composed of the following fields.
Size: the size of the entire BOX, including the size field itself.
Type: 4-byte type identifier representing the type of BOX. Usually expressed in 4 alphanumeric characters.

その他のフィールドはBOXによってはオプションであるため、ここでは説明を省略する。   Since the other fields are optional depending on the BOX, the description is omitted here.

ファイル中に記録されるデータは、その種類によって異なるタイプのBOXに保持される。例えば、メディアデータ1003は符号化データを格納するMedia Data BOX(typeフィールドの内容は‘mdat’、以降の説明でBOXのタイプを示す識別子が用いられる場合は、そのタイプで示されるBOXを表現しているものとする)として、メタデータ1002はコンテンツ全体のメタデータ情報を格納するMovie BOX(‘moov’)として記録される。前述のチャンクおよびサンプルに関する情報についても、同様に固有の識別子をもつBOXとして、moovの内部にトラック毎に記録される。   Data recorded in the file is held in different types of BOX depending on the type. For example, the media data 1003 is a Media Data BOX for storing encoded data (the content of the type field is 'mdat', and if an identifier indicating the BOX type is used in the following description, the media data 1003 represents the BOX indicated by that type. The metadata 1002 is recorded as a Movie BOX ('moov') that stores metadata information of the entire content. Information on the above chunks and samples is also recorded for each track in the moov as a BOX having a unique identifier.

また、MP4ファイル形式では、moovにすべてのメタデータを記録する形だけではなく、メタデータを時系列順に複数の領域に分割して記録するような形式も許可している。この形式は「フラグメントムービー」(Fragmented Movie)と呼ばれている。   In addition, the MP4 file format allows not only a form in which all metadata is recorded in moov but also a form in which metadata is divided and recorded in a plurality of areas in time series. This format is called “Fragmented Movie”.

図13に、フラグメントムービー形式のファイルの構造を示す。フラグメントムービー形式では、コンテンツのメディアデータおよびメタデータは任意の時間単位で分割することができ、分割された「フラグメント」はファイルの先頭から時系列順に記録される。例えば、図13では、moov1101は最初のフラグメントのメタデータを示しており、mdat1102に含まれるデータに関する情報を保持する。次に出現するmoof1103は2番目のフラグメントのメタデータであり、mdat1104の情報を保持する、というように以下同様にして記録される。なお、フラグメントムービー形式を取る場合、moov1101にフラグメントが存在することを示すMovie Extends Box(‘mvex’)1104を追加する必要がある。mvex1104に含まれる情報は、全フラグメントを含むコンテンツ全体のduration(時間長)などである。このように、MP4ファイル形式のファイルでは、メディアデータに関する各種属性をメタデータ領域としてメディアデータと分離して保持することによって、メディアデータが物理的にどのように格納されているかに関わらず、所望のサンプルデータに容易にアクセスすることが可能になる。   FIG. 13 shows the structure of a fragment movie format file. In the fragment movie format, the media data and metadata of content can be divided in arbitrary time units, and the divided “fragments” are recorded in chronological order from the beginning of the file. For example, in FIG. 13, moov 1101 indicates the metadata of the first fragment, and holds information regarding the data included in mdat 1102. The next appearing moof 1103 is the metadata of the second fragment, and is recorded in the same manner so as to hold the information of mdat 1104. When the fragment movie format is adopted, it is necessary to add a Movie Extends Box ('mvex') 1104 indicating that a fragment exists in the moov 1101. The information included in mvex 1104 is the duration (time length) of the entire content including all fragments. As described above, in the MP4 file format file, various attributes relating to the media data are stored as metadata areas separately from the media data, so that the desired data can be obtained regardless of how the media data is physically stored. It is possible to easily access the sample data.

以降では、本実施形態における動画像および音声データの記録に用いる動画ファイルフォーマットをMP4形式の図13に示すようなフラグメントムービー形式とする。そして、動画記録時の、前述のゴミ補正データとビデオサンプル(フレーム)1011とを関連付ける方法に関して説明する。   Hereinafter, the moving image file format used for recording moving images and audio data in the present embodiment is a fragment movie format as shown in FIG. 13 of the MP4 format. A method of associating the dust correction data with the video sample (frame) 1011 at the time of moving image recording will be described.

なお、前述の「Motion JPEG 2000ファイル形式」(ISO/IEC 15444−3)や、「AVCファイル形式」(ISO/IEC 14496−15)といった標準規格や、第三世代携帯電話を中心とする無線端末上での利用を前提に制約が課させられた動画ファイル規格である3GPPファイル形式(Thrird Generation Partnership Project)(3GPP TS 26.244 “Technical Specification Group Services and System Aspects Transparent end−to−end packet switched streaming service (PSS);3GPP file format (3GP)(Release 6)” 3rd Generation Partnership Project;2003−02−28を参照)など、MP4で規定されているものと類似のファイル形式およびアーキテクチャが採用されている規格も、本発明に適用することが可能である。   Standards such as the aforementioned “Motion JPEG 2000 file format” (ISO / IEC 15444-3) and “AVC file format” (ISO / IEC 14496-15), and wireless terminals centering on third-generation mobile phones 3GPP file format (Through Generation Partnership Project) (3GPP TS 26.244 “Technical Specialist Group Transport Services and Systems Specified Spectral Spects and Systems Specified Spectral Spects and Systems). service (PSS); 3GPP file format (3G ) (Release 6) "3rd Generation Partnership Project; see 2003-02-28), and other standards that employ file formats and architectures similar to those defined in MP4 may be applied to the present invention. Is possible.

(動画撮影ルーチン)
次に、本実施形態における動画撮影時の動作について説明する。
(Video shooting routine)
Next, the operation at the time of moving image shooting in the present embodiment will be described.

この処理はシステム制御回路50が不揮発性メモリ56に記憶された動画撮像処理プログラムを実行することにより実施される。   This process is performed by the system control circuit 50 executing a moving image capturing process program stored in the nonvolatile memory 56.

動画撮影をするためには、まずモードダイヤル60などを用いて、撮影モードを静止画撮影モードから動画撮影モードに変更する必要がある。   In order to shoot a moving image, it is first necessary to change the shooting mode from the still image shooting mode to the moving image shooting mode using the mode dial 60 or the like.

この動画撮影ルーチンが実行されると、システム制御回路50は、図3に示すクイックリターンミラー130を作動させ、いわゆるミラーアップを行い、撮影光路外にクイックリターンミラー130を退避させる。そして、シャッター12を開放し、撮像素子14に被写体光を露光させる。撮像素子14が露光されて生成された画像データは、所定レートでフレームバッファとして作用するメモリ30に連続的に書き込まれる。LCDモニタ装置417が電子ビューファインダ(EVF)として機能し、書き込まれた画像データが逐次表示される。動画撮影モード時に、動画記録開始ボタンがONされた(例えば、SETボタン117が動画撮影モード時に押された)のを検知することで、動画撮影を開始し、画像データを順次MP4形式のファイルフォーマットで記録媒体200へ記録する。   When this moving image shooting routine is executed, the system control circuit 50 operates the quick return mirror 130 shown in FIG. 3, performs so-called mirror up, and retracts the quick return mirror 130 out of the shooting optical path. Then, the shutter 12 is opened, and the image sensor 14 is exposed to subject light. The image data generated by exposing the image sensor 14 is continuously written in the memory 30 acting as a frame buffer at a predetermined rate. The LCD monitor device 417 functions as an electronic viewfinder (EVF), and the written image data is sequentially displayed. When the moving image recording start button is turned ON in the moving image shooting mode (for example, when the SET button 117 is pressed in the moving image shooting mode), the moving image shooting is started, and the image data is sequentially converted into the MP4 file format. To record on the recording medium 200.

動画撮影モード時に動画記録開始ボタンがONされたことで、動画撮影が開始されると、まず新規ファイルを生成し、最初のフラグメントのメタデータのBOXであるmoovおよびメディアデータのBOXであるmdatを作成する。   When movie recording is started by turning on the movie recording start button in the movie shooting mode, a new file is first generated, and mov which is the BOX of the first fragment metadata and mdat which is the BOX of the media data. create.

次に、ゴミ位置補正データを作成する。ゴミ位置補正データには、動画像撮影に使われるレンズのレンズ情報である絞り値、レンズの瞳位置情報、および図5に示したゴミ補正データが格納されている。なお、作成されたゴミ位置補正データは、メモリ52に格納される。メモリ52に格納されたゴミ位置補正データを読み込み、現在のフラグメントのメタデータmoov内に書きこむ。   Next, dust position correction data is created. In the dust position correction data, an aperture value, which is lens information of a lens used for moving image shooting, lens pupil position information, and dust correction data shown in FIG. 5 are stored. The created dust position correction data is stored in the memory 52. The dust position correction data stored in the memory 52 is read and written in the metadata moov of the current fragment.

図14は動画撮影中にレンズユニット300をズーム駆動させた場合の動作を示すフローチャートである。   FIG. 14 is a flowchart showing an operation when the lens unit 300 is zoomed during moving image shooting.

本実施形態では動画撮影中に、システム制御回路50がズーム制御部344からズーム駆動が開始されたことを検知することによって以下の処理が行われる。   In the present embodiment, the following processing is performed when the system control circuit 50 detects that the zoom drive is started from the zoom control unit 344 during moving image shooting.

ズーム駆動が開始されたことを検知すると、システム制御回路50はフラグメントを新規作成する(ステップS1401)。なお、撮影された動画データは、フラグメント単位で分割記録される。   When it is detected that zoom driving has started, the system control circuit 50 creates a new fragment (step S1401). Note that the captured moving image data is divided and recorded in fragment units.

次に、システム制御回路50は撮像素子14を露光させて動画撮像処理を行い、生成された動画像データをメモリ30に格納する。動画像データのフレーム毎に順次に画像処理回路20で画像処理を行い、メモリ30に記録を行う(ステップS1402)。   Next, the system control circuit 50 exposes the image sensor 14 to perform moving image imaging processing, and stores the generated moving image data in the memory 30. The image processing circuit 20 sequentially performs image processing for each frame of moving image data and records it in the memory 30 (step S1402).

次に、システム制御回路50はズーム制御部344からレンズがズーム駆動中であるか否かの情報を受け取り、レンズユニット300がズーム駆動中(ズーム操作中)であるか否かの判断を行う(ステップS1403)。   Next, the system control circuit 50 receives information on whether or not the lens is being zoom-driven from the zoom control unit 344, and determines whether or not the lens unit 300 is being zoom-driven (zooming operation) ( Step S1403).

ステップS1403でズーム駆動中であると判断された場合は、システム制御回路50はレンズ情報を取得する。なお、レンズ情報とは絞り値、瞳位置の情報である(ステップS1404)。   If it is determined in step S1403 that zoom driving is being performed, the system control circuit 50 acquires lens information. The lens information is information on the aperture value and the pupil position (step S1404).

ステップS1404で取得した現フレームのレンズ情報が、前フレームのレンズ情報から変化があるか否かの判断を行う(ステップS1405)。   It is determined whether the lens information of the current frame acquired in step S1404 has changed from the lens information of the previous frame (step S1405).

ステップS1405でレンズ情報の変化が見られた場合は、現フレームのレンズ情報を現在のフラグメントのメタデータmoof内に記録する(ステップS1406)。   If the lens information changes in step S1405, the lens information of the current frame is recorded in the metadata moof of the current fragment (step S1406).

ステップS1405でレンズ情報の変化が検出されなかった場合には、フラグメントは更新せず、動画撮影、画像処理及び圧縮処理を行い、動画像データを現在のフラグメントのmdatに書き込む。   If no change in lens information is detected in step S1405, the fragment is not updated, moving image shooting, image processing, and compression processing are performed, and moving image data is written in the mdat of the current fragment.

また、ズーム駆動中である間は1つのフラグメントのメタデータmoof内に変化するレンズ情報を追加する形式で書き込んでいくことになる。そのため、レンズ情報をヘッダー部に記録する際に、同じレンズ情報に対応するフレームの範囲を示すフレーム数等の情報も同時に書き込む。なお、同じレンズ情報に対応するフレームの範囲を示す情報は、フレーム数に限るものではなく、レンズ情報とそれに対応するフレームを明らかにできる情報であれば他の情報でもよい。   During zoom driving, the lens information that changes is written in the metadata moof of one fragment. Therefore, when the lens information is recorded in the header portion, information such as the number of frames indicating the range of frames corresponding to the same lens information is simultaneously written. Note that the information indicating the frame range corresponding to the same lens information is not limited to the number of frames, and may be other information as long as the information can clarify the lens information and the corresponding frame.

ステップS1403でズーム駆動中ではないと判断された場合は、フラグメントの分割を行い新たにフラグメントを作成し、このズーム駆動中の動作を終了する。   If it is determined in step S1403 that the zoom drive is not being performed, the fragment is divided to newly create a fragment, and the operation during the zoom drive is ended.

ズーム駆動終了と判断されるまで、以上の一連の処理(ステップS1402〜ステップS1406)を繰り返す。   The above series of processing (steps S1402 to S1406) is repeated until it is determined that the zoom driving is completed.

なお、動画再生時には、図10のゴミ除去処理におけるステップS1805のゴミ補正パラメータの変換時に、各フレームに対応したレンズ情報をフラグメントのmoofより読み出すことでゴミ除去を行う。   During moving image reproduction, dust conversion is performed by reading lens information corresponding to each frame from the fragment moof when converting dust correction parameters in step S1805 in the dust removal processing of FIG.

以上説明した第1の実施形態によれば、以下のような効果が得られる。   According to the first embodiment described above, the following effects can be obtained.

上記のように画像にゴミ補正データを添付することで、ゴミ補正用画像データと撮影画像データの対応を意識する必要が無くなるという利点がある。また、ゴミ補正データが位置、大きさ、変換用データ(絞り値、レンズの瞳位置情報)で構成されるコンパクトなデータであるので、撮影画像データサイズが極端に大きくなることもない。また、ゴミ補正データで指定された画素を含む領域だけを補間処理することにより、誤検出の確率を大幅に低減することが可能になる。   By attaching dust correction data to an image as described above, there is an advantage that it is not necessary to be aware of the correspondence between dust correction image data and captured image data. Further, since the dust correction data is compact data composed of position, size, and conversion data (aperture value, lens pupil position information), the captured image data size does not become extremely large. Further, by performing interpolation processing only on the region including the pixel specified by the dust correction data, the probability of erroneous detection can be greatly reduced.

また、レンズのズーム駆動中はフラグメントの分割はせず1つのフラグメントに複数のレンズ情報を記録していくので、必要以上にフラグメントが分割されずデータ量を削減することができる。   In addition, since the plurality of pieces of lens information is recorded in one fragment without dividing the fragment during the zoom driving of the lens, the fragment is not divided more than necessary, and the data amount can be reduced.

また、フラグメントが分割されないことは、動画ファイルの再生処理での負荷を軽減することができる。   Further, the fact that the fragment is not divided can reduce the load in the reproduction process of the moving image file.

(第2の実施形態)
上記の第1の実施形態では、レンズのズーム駆動中において毎フレームの動画記録の際にレンズ情報を取得し、レンズ情報に変化が見られたらレンズ情報を記録した。
(Second Embodiment)
In the first embodiment described above, lens information is acquired at the time of moving image recording for each frame during zoom driving of the lens, and lens information is recorded when there is a change in the lens information.

これに対し、第2の実施形態では、レンズのズーム駆動開始時と終了時にのみレンズ情報を記録する。この第2の実施形態に係るデジタルカメラの構成は、第1の実施形態と同様であるため、説明を省略し、第1の実施形態と異なる動作のみについて説明する。   On the other hand, in the second embodiment, lens information is recorded only at the start and end of zoom driving of the lens. Since the configuration of the digital camera according to the second embodiment is the same as that of the first embodiment, description thereof will be omitted, and only operations different from those of the first embodiment will be described.

図15は本実施形態におけるズーム駆動中の動画記録の処理を示すフローチャートである。   FIG. 15 is a flowchart showing a moving image recording process during zoom driving in the present embodiment.

本実施形態では動画撮影中に、システム制御回路50がズーム制御部344からズーム駆動が開始されたことを検知することによって以下の処理が行われる。   In the present embodiment, the following processing is performed when the system control circuit 50 detects that the zoom drive is started from the zoom control unit 344 during moving image shooting.

まず、ズーム駆動が開始されたことを検知すると、システム制御回路50はフラグメントを新規作成する(ステップS1501)。   First, when it is detected that zoom driving has started, the system control circuit 50 creates a new fragment (step S1501).

次に、システム制御回路50はレンズ情報を取得する。このレンズ情報はズーム駆動開始時でのレンズ情報として現在のフラグメントのメタデータmoof内に記録する(ステップS1502)。なお、レンズ情報とは、絞り値、瞳位置の情報である。   Next, the system control circuit 50 acquires lens information. This lens information is recorded in the metadata moof of the current fragment as lens information at the start of zoom driving (step S1502). The lens information is information on the aperture value and the pupil position.

次に、システム制御回路50は撮像素子14を露光させて動画撮影処理を行い、撮影した動画をメモリ30に格納する。撮影された動画像は各フレーム毎に順次に画像処理回路20で画像処理され、メモリ30に記録される(ステップS1503)。   Next, the system control circuit 50 exposes the image sensor 14 to perform moving image shooting processing, and stores the shot moving image in the memory 30. The captured moving image is sequentially processed by the image processing circuit 20 for each frame and recorded in the memory 30 (step S1503).

次に、システム制御回路50はズーム制御部344からレンズがズーム駆動中であるか否かの情報を受け取り、レンズがズーム駆動中であるか否かの判断を行う(ステップS1504)。ここでズーム駆動中ではないと判断されるまで、ステップS1503とステップS1504の処理を繰り返す。   Next, the system control circuit 50 receives information on whether or not the lens is being zoom-driven from the zoom control unit 344, and determines whether or not the lens is being zoom-driven (step S1504). Steps S1503 and S1504 are repeated until it is determined that zoom driving is not being performed.

ステップS1504でズーム駆動中ではない、すなわちズーム駆動が終了したと判断されたならば、システム制御回路50はレンズ情報を取得する(ステップS1505)。このレンズ情報はズーム駆動終了時でのレンズ情報として現在のフラグメントのメタデータmoof内に記録する。なお、レンズ情報とは、絞り値、瞳位置の情報である。   If it is determined in step S1504 that the zoom drive is not being performed, that is, the zoom drive has been completed, the system control circuit 50 acquires lens information (step S1505). This lens information is recorded in the metadata moof of the current fragment as lens information at the end of zoom driving. The lens information is information on the aperture value and the pupil position.

次に、システム制御回路50は、フラグメントの分割を行い、新たにフラグメントを作成し、このズーム駆動中のフローを終了する(ステップS1506)。   Next, the system control circuit 50 divides the fragment, creates a new fragment, and ends the flow during zoom driving (step S1506).

そして、図10のゴミ除去処理におけるステップS1805のゴミ補正パラメータの変換時に、ズーム開始時と終了時のレンズ情報をフラグメントのmoofより読み出し、その変移からズーム駆動中の中間のフレームにはレンズ情報を補間していくことによってゴミ除去を行う。   Then, when converting dust correction parameters in step S1805 in the dust removal process of FIG. 10, the lens information at the start and end of zooming is read from the fragment moof, and the lens information is stored in the intermediate frame during zoom driving from the transition. Dust removal is performed by interpolation.

以上説明した第2の実施形態によれば、第1の実施形態とほぼ同様の効果を得ることができる。   According to the second embodiment described above, substantially the same effect as that of the first embodiment can be obtained.

さらに第2の実施形態では、ズーム駆動の開始時と終了時にのみレンズ情報を記録するので、データ量を減らすことができる。   Furthermore, in the second embodiment, since lens information is recorded only at the start and end of zoom driving, the amount of data can be reduced.

(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態では、レンズのズーム駆動中においてある一定フレームの間隔で、動画記録と共にレンズ情報を記録する。この第3の実施形態に係るデジタルカメラの構成は、第1の実施形態と同様であるため、説明を省略し、第1の実施形態と異なる動作のみについて説明する。
(Third embodiment)
Next, a third embodiment will be described. In the third embodiment, lens information is recorded together with moving image recording at a certain frame interval during zoom driving of the lens. Since the configuration of the digital camera according to the third embodiment is the same as that of the first embodiment, description thereof will be omitted and only operations different from those of the first embodiment will be described.

図16は本実施形態におけるズーム駆動中の動画記録の処理を示すフローチャートである。   FIG. 16 is a flowchart showing a moving image recording process during zoom driving in the present embodiment.

本実施形態では動画撮影中に、システム制御回路50がズーム制御回路344からズーム駆動が開始されたことを検知することによって以下の処理が行われる。   In the present embodiment, the following processing is performed when the system control circuit 50 detects that the zoom drive is started from the zoom control circuit 344 during moving image shooting.

まず、ズーム駆動が開始されたことを検知すると、システム制御回路50はフラグメントを新規作成する(ステップS1601)。   First, when it is detected that zoom driving is started, the system control circuit 50 creates a new fragment (step S1601).

次に、システム制御回路50は、レンズ情報を取得し、現在のフラグメントのメタデータmoof内に記録する。なお、レンズ情報とは、絞り値、瞳位置の情報である(ステップS1602)。   Next, the system control circuit 50 acquires the lens information and records it in the metadata moof of the current fragment. The lens information is information on the aperture value and the pupil position (step S1602).

次に、システム制御回路50は、フレーム間隔をカウントするためのカウントを開始する。具体的にはカウント値に1を代入する(ステップS1603)。   Next, the system control circuit 50 starts counting for counting the frame interval. Specifically, 1 is substituted for the count value (step S1603).

システム制御回路50は、撮像素子14を露光させて動画撮影処理を行い、撮影された動画像をメモリ30に格納する。撮影された動画像は、各フレーム毎に順次に画像処理回路20で画像処理され、メモリ30に記録される(ステップS1604)。   The system control circuit 50 exposes the image sensor 14 to perform moving image shooting processing, and stores the shot moving image in the memory 30. The captured moving image is subjected to image processing by the image processing circuit 20 sequentially for each frame and recorded in the memory 30 (step S1604).

システム制御回路50は、動画像の1フレームが撮影されると、フレーム間隔をカウントするためカウント値を+1する(ステップS1605)。   When one frame of the moving image is captured, the system control circuit 50 increments the count value by 1 to count the frame interval (step S1605).

システム制御回路50は、ズーム制御部344からレンズがズーム駆動中であるか否かの情報を受け取り、レンズがズーム駆動中であるか否かの判断を行う(ステップS1606)。   The system control circuit 50 receives information on whether or not the lens is zoom-driven from the zoom control unit 344, and determines whether or not the lens is zoom-driven (step S1606).

ズーム駆動中ではないと判断されるまで、一連の処理(ステップS1602〜ステップS1607)を繰り返す。   A series of processing (steps S1602 to S1607) is repeated until it is determined that zoom driving is not in progress.

ステップS1607では、システム制御回路50はカウント値が前もって定められたフレーム数(図16では10フレーム)に達したかどうかの判定を行う。カウント値が定められたフレーム数に達するまでは一連の処理(ステップS1604〜ステップS1607)を繰り返す。カウント値が定められたフレーム数に達した場合はステップS1602のレンズ情報記録を行い、ステップS1603で再びカウントを開始し、一連の処理(ステップS1604〜ステップS1607)を行う。   In step S1607, the system control circuit 50 determines whether the count value has reached a predetermined number of frames (10 frames in FIG. 16). A series of processing (steps S1604 to S1607) is repeated until the count value reaches the predetermined number of frames. When the count value reaches the predetermined number of frames, lens information is recorded in step S1602, and counting is started again in step S1603, and a series of processing (steps S1604 to S1607) is performed.

ステップS1606でズーム駆動中ではない、すなわちズーム駆動が終了したと判断された場合は、ステップS1608でフラグメントの分割を行い、新たにフラグメントを作成し、このズーム駆動中のフローを終了する。   If it is determined in step S1606 that the zoom drive is not in progress, that is, it is determined that the zoom drive has ended, a fragment is divided in step S1608, a new fragment is created, and the flow during the zoom drive is ended.

そして、図10のゴミ除去処理におけるステップS1805のゴミ補正パラメータの変換時に、一定間隔のフレームのレンズ情報をフラグメントのmoovより読み出し、その変移からレンズ情報を記録していない中間のフレームに対して、前後のレンズ情報からレンズ情報を補間していく。これによって、ゴミ除去を行う。   Then, during the dust correction parameter conversion in step S1805 in the dust removal process of FIG. 10, the lens information of the frames at regular intervals is read from the fragment moov, and the intermediate frame in which no lens information is recorded from the transition is read. The lens information is interpolated from the front and rear lens information. In this way, dust removal is performed.

以上説明したように、上記の実施形態によれば、第1の実施形態とほぼ同様の効果を得ることができる。さらに第3の実施形態では、一定フレーム間隔でレンズ情報を記録していくので、データ量を減らすことができる。   As described above, according to the above embodiment, substantially the same effect as that of the first embodiment can be obtained. Furthermore, in the third embodiment, since lens information is recorded at a constant frame interval, the amount of data can be reduced.

(他の実施形態)
上記の各実施例では、デジタルカメラ本体ではなく、別途用意された画像処理装置を用いてゴミ除去処理を実行したが、もちろんデジタルカメラ本体でゴミ除去処理を実行してもよい。その場合、当該処理は、システム制御回路50が不揮発性メモリ56に記憶されたゴミ除去処理プログラムを実行することにより実施される。
(Other embodiments)
In each of the embodiments described above, the dust removal process is performed using an image processing apparatus prepared separately instead of the digital camera body. Of course, the dust removal process may be performed on the digital camera body. In that case, the processing is performed by the system control circuit 50 executing a dust removal processing program stored in the nonvolatile memory 56.

また、各実施形態の目的は、次のような方法によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、本発明には次のような場合も含まれる。すなわち、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   The object of each embodiment is also achieved by the following method. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but the present invention includes the following cases. That is, based on the instruction of the program code, an operating system (OS) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

さらに、次のような場合も本発明に含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   Furthermore, the following cases are also included in the present invention. That is, the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した手順に対応するプログラムコードが格納されることになる。   When the present invention is applied to the above storage medium, the storage medium stores program codes corresponding to the procedure described above.

本発明の第1の実施形態に係わるデジタルカメラを背面側から見た外観斜視図である。It is the external appearance perspective view which looked at the digital camera concerning the 1st Embodiment of this invention from the back side. 本発明の第1の実施形態に係わるデジタルカメラの内部構造を示す垂直断面図である。1 is a vertical sectional view showing an internal structure of a digital camera according to a first embodiment of the present invention. 本発明に係わる撮像装置としてのレンズ交換式一眼レフデジタルカメラの回路構成を示すブロック図である。1 is a block diagram illustrating a circuit configuration of a lens interchangeable single-lens reflex digital camera as an imaging apparatus according to the present invention. 第1の実施形態に係わるデジタルカメラにおけるゴミ検出処理を説明するフローチャートである。4 is a flowchart for explaining dust detection processing in the digital camera according to the first embodiment. ゴミ補正データのデータ形式例を示す図である。It is a figure which shows the data format example of dust correction data. 図4のステップS27で行われるゴミ領域取得ルーチンの詳細を説明するフローチャートである。5 is a flowchart for explaining details of a dust region acquisition routine performed in step S27 of FIG. 4. 図6のステップS62で行われるゴミ領域判定処理の処理単位を示す図である。It is a figure which shows the processing unit of the dust area | region determination process performed by step S62 of FIG. 図6のステップS63で行われるゴミ領域サイズ算出の概要を示す図である。It is a figure which shows the outline | summary of dust area size calculation performed by step S63 of FIG. 図4のステップS24で行われる撮像処理ルーチンの詳細を説明するフローチャートである。FIG. 5 is a flowchart illustrating details of an imaging process routine performed in step S <b> 24 of FIG. 4. FIG. ゴミ除去処理を示すフローチャートである。It is a flowchart which shows a dust removal process. 図10のステップS1806で行われる保管ルーチンの詳細を説明するフローチャートである。It is a flowchart explaining the detail of the preservation | save routine performed by FIG.10 S1806. MP4或いは類似のファイル形式におけるメタデータ、メディアデータの概念を説明する図である。It is a figure explaining the concept of the metadata and media data in MP4 or a similar file format. フラグメントムービーの概念を説明する図である。It is a figure explaining the concept of a fragment movie. 第1の実施形態におけるズーム駆動時のフラグメントの分割方法を示すフローチャートである。It is a flowchart which shows the division | segmentation method of the fragment at the time of the zoom drive in 1st Embodiment. 第2の実施形態におけるズーム駆動時のフラグメントの分割方法を示すフローチャートである。It is a flowchart which shows the division | segmentation method of the fragment at the time of the zoom drive in 2nd Embodiment. 第3の実施形態におけるズーム駆動時のフラグメントの分割方法を示すフローチャートである。It is a flowchart which shows the division | segmentation method of the fragment at the time of the zoom drive in 3rd Embodiment.

Claims (7)

撮影レンズにより結像された被写体像を光電変換する撮像素子を有する撮像手段と、
前記撮像手段より得られる異物検出用画像信号に含まれる異物の像から、少なくとも前記異物の位置及び大きさの情報を含む異物情報を検出する異物検出手段と、
前記撮影レンズの絞り値及び瞳位置の情報を含むレンズ情報を取得するレンズ情報取得手段と、
動画像撮影が行われるときに、前記撮像手段から連続的に出力される画像信号に基づいて生成される動画像データを記録するとともに、該動画像データに前記異物情報と前記レンズ情報とを付加して記録する記録手段と、
前記撮影レンズのズーム操作の開始および終了を検出するズーム操作検出手段と、を備え、
前記ズーム操作検出手段が前記撮影レンズのズーム操作の開始を検出するときに、前記記録手段は新規のフラグメントを作成し、
前記ズーム操作検出手段が前記撮影レンズのズーム操作の開始を検出してから、前記撮影レンズのズーム操作の終了を検出するまでの間に、前記レンズ情報取得手段は前記レンズ情報を更新して、前記記録手段は、前記更新されたレンズ情報を前記動画像データに付加して前記新規のフラグメントに記録することを特徴とする撮像装置。
An image pickup means having an image pickup device for photoelectrically converting a subject image formed by the taking lens ;
From the image of the foreign matter contained in the foreign substance detection image signal obtained from the imaging unit, and the foreign matter detection means for detecting the foreign substance information including information of the position and size of the foreign substance even without low,
Lens information acquisition means for acquiring lens information including information on the aperture value and pupil position of the photographing lens ;
When the moving image shooting is performed, and records the moving image data generated based on the image signal continuously outputted from the image pickup means, wherein the lenses information before and Kikoto product information to the moving picture data And a recording means for adding and recording,
Zoom operation detecting means for detecting the start and end of the zoom operation of the photographic lens ,
When the zoom operation detecting means detects the start of the zoom operation of the photographing lens, the recording means creates a new fragment,
Between the time when the zoom operation detecting unit detects the start of the zoom operation of the photographing lens and the end of the zoom operation of the photographing lens is detected, the lens information acquisition unit updates the lens information, The recording device adds the updated lens information to the moving image data and records it in the new fragment .
前記ズーム操作検出手段が前記撮影レンズのズーム操作の開始を検出してから、前記撮影レンズのズーム操作の終了を検出するまでの間に、前記レンズ情報取得手段は繰り返し前記レンズ情報を更新して、複数の更新されたレンズ情報を取得し、
前記記録手段は、前記複数の更新されたレンズ情報を前記動画像データに付加して前記新規のフラグメントに記録することを特徴とする請求項1に記載の撮像装置。
The lens information acquisition unit repeatedly updates the lens information after the zoom operation detection unit detects the start of the zoom operation of the photographic lens until the end of the zoom operation of the photographic lens is detected. Get multiple updated lens information,
The imaging apparatus according to claim 1, wherein the recording unit adds the plurality of updated lens information to the moving image data and records the new fragment .
前記ズーム操作検出手段が前記撮影レンズのズーム操作の開始または前記撮影レンズのズーム操作の終了を検出するときに、前記レンズ情報取得手段は前記レンズ情報を更新することを特徴とする請求項に記載の撮像装置。 When the zoom operation detecting means detects the end of the zoom operation is started or the photographing lens of the zoom operation of the photographing lens, the lens information acquisition unit in claim 1, characterized in that updating the lens information The imaging device described. 前記ズーム操作検出手段が前記撮影レンズのズーム操作の終了を検出するときに、前記記録手段は新規のフラグメントを作成することを特徴とする請求項に記載の撮像装置。 When the zoom operation detecting means detects the end of the zoom operation of the photographing lens, said recording means imaging apparatus according to claim 1, characterized in that to create a new fragment. 前記レンズ情報取得手段は、一定のフレーム間隔ごとに繰り返し前記レンズ情報を更新することを特徴とする請求項2に記載の撮像装置。 The imaging apparatus according to claim 2, wherein the lens information acquisition unit updates the lens information repeatedly at regular frame intervals. 撮影レンズにより結像された被写体像を光電変換する撮像素子を有する撮像手段を備える撮像装置を制御する方法であって、
前記撮像手段より得られる異物検出用画像信号に含まれる異物の像から、少なくとも前記異物の位置及び大きさの情報を含む異物情報を検出する異物検出ステップと、
前記撮影レンズの絞り値及び瞳位置の情報を含むレンズ情報を取得するレンズ情報取得ステップと、
動画像撮影が行われるときに、前記撮像手段から連続的に出力される画像信号に基づいて生成される動画像データを記録するとともに、該動画像データに前記異物情報と前記レンズ情報とを付加して記録する記録ステップと、
前記撮影レンズのズーム操作の開始および終了を検出するズーム操作検出ステップと、を備え、
前記ズーム操作検出ステップで前記撮影レンズのズーム操作の開始が検出されるときに、前記記録ステップで新規のフラグメントを作成し、
前記ズーム操作検出ステップで前記撮影レンズのズーム操作の開始が検出されてから、前記撮影レンズのズーム操作の終了が検出されるまでの間に、前記レンズ情報取得ステップで前記レンズ情報が更新され、前記記録ステップで前記更新されたレンズ情報を前記動画像データに付加して前記新規のフラグメントに記録することを特徴とする撮像装置の制御方法。
A method for controlling an image pickup apparatus including an image pickup unit having an image pickup device that photoelectrically converts a subject image formed by a photographing lens ,
From the image of the foreign matter contained in the foreign substance detection image signal obtained from the imaging unit, and the foreign matter detection step of detecting the foreign substance information including information of the position and size of the foreign substance even without low,
Lens information acquisition step for acquiring lens information including information on the aperture value and pupil position of the photographing lens ;
When the moving image shooting is performed, and records the moving image data generated based on the image signal continuously outputted from the image pickup means, wherein the lenses information before and Kikoto product information to the moving picture data And a recording step for adding and recording,
A zoom operation detecting step for detecting the start and end of the zoom operation of the photographing lens ,
When the start of the zoom operation of the photographing lens is detected in the zoom operation detection step, a new fragment is created in the recording step,
The lens information is updated in the lens information acquisition step after the zoom operation detection step detects the start of the zoom operation of the photographing lens until the end of the zoom operation of the photographing lens is detected, A method for controlling an imaging apparatus , wherein the updated lens information in the recording step is added to the moving image data and recorded in the new fragment .
請求項6に記載の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 6.
JP2008148319A 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program Expired - Fee Related JP5014262B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008148319A JP5014262B2 (en) 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program
US12/466,839 US8593537B2 (en) 2008-06-05 2009-05-15 Image sensing apparatus, control method thereof, and program for suppressing image deterioration caused by foreign substance
CN 200910146963 CN101600046B (en) 2008-06-05 2009-06-05 Image sensing apparatus and control method thereof
US14/061,279 US9013608B2 (en) 2008-06-05 2013-10-23 Image sensing apparatus comprising foreign substance detection control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008148319A JP5014262B2 (en) 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program

Publications (3)

Publication Number Publication Date
JP2009296360A JP2009296360A (en) 2009-12-17
JP2009296360A5 JP2009296360A5 (en) 2011-07-28
JP5014262B2 true JP5014262B2 (en) 2012-08-29

Family

ID=41421271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008148319A Expired - Fee Related JP5014262B2 (en) 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program

Country Status (2)

Country Link
JP (1) JP5014262B2 (en)
CN (1) CN101600046B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8939374B2 (en) * 2010-12-30 2015-01-27 Hand Held Products, Inc. Terminal having illumination and exposure control
JP2014150362A (en) * 2013-01-31 2014-08-21 Canon Inc Image pickup apparatus
US11076113B2 (en) 2013-09-26 2021-07-27 Rosemount Inc. Industrial process diagnostics using infrared thermal sensing
US10823592B2 (en) 2013-09-26 2020-11-03 Rosemount Inc. Process device with process variable measurement using image capture device
US10638093B2 (en) * 2013-09-26 2020-04-28 Rosemount Inc. Wireless industrial process field device with imaging
US10914635B2 (en) 2014-09-29 2021-02-09 Rosemount Inc. Wireless industrial process monitor
CN104333705B (en) * 2014-11-28 2017-07-07 广东欧珀移动通信有限公司 A kind of image enchancing method and device
CN109788274B (en) * 2018-12-19 2020-10-16 努比亚技术有限公司 Camera lens stain detection method, terminal and computer-readable storage medium
CN109884727B (en) 2019-03-15 2022-03-04 Oppo广东移动通信有限公司 Foreign matter detection method, foreign matter detection device, and electronic apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4090254B2 (en) * 2002-03-12 2008-05-28 富士フイルム株式会社 Information recording device
JP4466015B2 (en) * 2002-12-27 2010-05-26 株式会社ニコン Image processing apparatus and image processing program
JP2005328279A (en) * 2004-05-13 2005-11-24 Canon Inc Recording device
JP4590355B2 (en) * 2006-01-12 2010-12-01 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2007215151A (en) * 2006-01-12 2007-08-23 Canon Inc Imaging apparatus, control method thereof, and program

Also Published As

Publication number Publication date
CN101600046A (en) 2009-12-09
CN101600046B (en) 2013-07-17
JP2009296360A (en) 2009-12-17

Similar Documents

Publication Publication Date Title
JP5106335B2 (en) Imaging apparatus, control method thereof, and program
JP5014262B2 (en) Imaging apparatus, control method thereof, and program
JP5203869B2 (en) Image processing apparatus, control method therefor, and program
US8094216B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
US9013608B2 (en) Image sensing apparatus comprising foreign substance detection control method thereof, and program
JP2010136191A (en) Imaging apparatus, recording device, and recording method
JP5094665B2 (en) Imaging apparatus, control method thereof, and program
JP2010081115A (en) Image processing apparatus, image processing method and program
JP5241348B2 (en) Imaging apparatus, control method thereof, and program
JP2003333434A (en) Device and method for picking-up image, program, and recording medium
JP4393177B2 (en) Imaging apparatus and imaging method
JP5247346B2 (en) Imaging apparatus, control method and program thereof, image processing apparatus, and image processing method
US10284783B2 (en) Imaging apparatus and control method of imaging apparatus
JP4838644B2 (en) Imaging apparatus, control method thereof, and program
JP2001320634A (en) Image pickup device, its control method and computer- readable medium
JP2006203665A (en) Imaging device and method therefor, and recording medium and program
JP2006217313A (en) Image processing apparatus, its control method and storage medium
JP2016208206A (en) Recording apparatus
JP2006108878A (en) Imaging apparatus
JP2006101408A (en) Imaging device
JP2003101868A (en) Electronic camera, control method therefor and control program
JP2014150362A (en) Image pickup apparatus
JP2003101933A (en) Image processor, its controlling method, control program, and storage medium
JP2004172954A (en) Image pickup unit
JP2004260596A (en) Image pickup device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120605

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5014262

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees