JP2008092299A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2008092299A
JP2008092299A JP2006271162A JP2006271162A JP2008092299A JP 2008092299 A JP2008092299 A JP 2008092299A JP 2006271162 A JP2006271162 A JP 2006271162A JP 2006271162 A JP2006271162 A JP 2006271162A JP 2008092299 A JP2008092299 A JP 2008092299A
Authority
JP
Japan
Prior art keywords
image
failure
determination unit
electronic camera
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006271162A
Other languages
Japanese (ja)
Inventor
Ryota Kawachi
亮太 河内
Yoshitaka Tsunoda
好隆 角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Systems Inc
Original Assignee
Nikon Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Systems Inc filed Critical Nikon Systems Inc
Priority to JP2006271162A priority Critical patent/JP2008092299A/en
Publication of JP2008092299A publication Critical patent/JP2008092299A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means for a user to promptly confirm a failure image in photography of the failure image. <P>SOLUTION: This electronic camera is provided with an imaging part (12), an image determination part (16) and a display part (19). The imaging part photographs a subject image to generate data about a photographed image. The image determination part determines whether the photographed image has a failure. When determined that the photographed image has a failure, the display part enlarges a partial area of the failure image including a failure part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、失敗画像の撮影をユーザーに通知する機能を有する電子カメラに関する。   The present invention relates to an electronic camera having a function of notifying a user of taking a failed image.

従来から特許文献1に示すように、失敗画像の撮影時にユーザーに対して音声などで通知を行い、再撮影を促す電子カメラが公知である。
特開2004−120256号公報
Conventionally, as shown in Patent Document 1, an electronic camera that notifies a user with voice or the like at the time of shooting a failed image and prompts re-shooting is known.
JP 2004-120256 A

しかし、上記の特許文献1では、ユーザーはいかなる失敗画像を撮影したのかを迅速に確認することができなかった。そのため、ユーザーは再撮影のときにどのようにすれば適切な撮影を行えるかを迅速に判断できず、前回と同じ失敗画像を繰り返して撮影するおそれもある点でなお改善の余地があった。
本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、失敗画像の撮影時にいかなる失敗画像を撮影したのかをユーザーが迅速に確認できる手段を提供することである。
However, in the above-mentioned Patent Document 1, the user cannot quickly confirm what kind of failed image was taken. For this reason, there is still room for improvement in that the user cannot quickly determine how to perform appropriate shooting at the time of re-shooting and may repeatedly shoot the same failed image as the previous time.
The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide a means by which a user can quickly confirm what kind of failure image was taken when the failure image was taken.

第1の発明の電子カメラは、撮像部と、画像判定部と、表示部とを備える。撮像部は、被写体像を撮影して撮影画像のデータを生成する。画像判定部は、撮影画像が失敗画像であるか否かを判定する。表示部は、画像判定部が失敗画像であると判定した場合に、失敗箇所を含む失敗画像の部分領域を拡大表示する。
第2の発明は、第1の発明において、画像判定部は、撮影画像のデータに対して画像解析を実行し、画像解析で失敗箇所を検出した場合に撮影画像を失敗画像と判定する。
An electronic camera according to a first aspect includes an imaging unit, an image determination unit, and a display unit. The imaging unit captures a subject image and generates captured image data. The image determination unit determines whether the captured image is a failed image. When the image determination unit determines that the image is a failure image, the display unit enlarges and displays the partial region of the failure image including the failure part.
In a second aspect based on the first aspect, the image determination unit performs image analysis on the captured image data, and determines a captured image as a failed image when a failure location is detected in the image analysis.

第3の発明は、第2の発明において、画像判定部は、撮影画像を複数の小領域に分割して画像解析を実行する。また、表示部は、失敗箇所が検出された小領域の画像を拡大表示する。
第4の発明は、第1から第3のいずれかの発明において、失敗画像は、手ブレ、被写体ブレ、赤目状態、目つぶり状態のいずれかに起因する撮影失敗を含むものである。
In a third aspect based on the second aspect, the image determination unit divides the captured image into a plurality of small regions and executes image analysis. Further, the display unit displays an enlarged image of the small area where the failure point is detected.
According to a fourth invention, in any one of the first to third inventions, the failure image includes a shooting failure caused by any of camera shake, subject blur, red-eye state, and blinking state.

第5の発明は、第1から第4のいずれかの発明において、画像判定部が失敗画像であると判定した場合に、失敗画像であることを示す識別データを撮影画像のデータに対応付けする識別データ生成部を、電子カメラがさらに備える。
第6の発明は、第5の発明において、識別データ生成部は、撮影失敗の種類を示す失敗種別データを識別データにさらに含める。
According to a fifth invention, in any one of the first to fourth inventions, when the image determination unit determines that the image is a failure image, the identification data indicating the failure image is associated with the captured image data. The electronic data camera further includes an identification data generation unit.
In a sixth aspect based on the fifth aspect, the identification data generation unit further includes failure type data indicating the type of shooting failure in the identification data.

本発明では、失敗画像を撮影したときに判定の根拠となった失敗箇所が表示部に拡大表示され、ユーザーはいかなる失敗画像を撮影したのかを迅速に確認できる。   In the present invention, the failure location that is the basis for the determination when the failure image is captured is enlarged and displayed on the display unit, and the user can quickly confirm what failure image was captured.

図1は本実施形態の電子カメラの構成を示すブロック図である。なお、本実施形態では、失敗画像の一例として、手ブレの失敗画像を検出する例を説明する。また、本発明は、CCDやCMOSといった固体撮像素子を有する電子カメラに適用でき、ムービーカメラの静止画撮影にも適用することができる。
電子カメラは、撮影レンズ11と、撮像素子12と、アナログ処理部13と、バッファメモリ14と、画像処理部15と、画像判定部16と、記録I/F17と、レリーズ釦18と、モニタ19と、CPU20およびバス21とを有している。なお、バッファメモリ14、画像処理部15、画像判定部16、記録I/F17、モニタ19およびCPU20は、バス21を介してそれぞれ接続されている。
FIG. 1 is a block diagram showing the configuration of the electronic camera of this embodiment. In the present embodiment, an example of detecting a camera shake failure image will be described as an example of a failure image. Further, the present invention can be applied to an electronic camera having a solid-state imaging device such as a CCD or a CMOS, and can also be applied to still image shooting of a movie camera.
The electronic camera includes a photographic lens 11, an image sensor 12, an analog processing unit 13, a buffer memory 14, an image processing unit 15, an image determination unit 16, a recording I / F 17, a release button 18, and a monitor 19. And a CPU 20 and a bus 21. Note that the buffer memory 14, the image processing unit 15, the image determination unit 16, the recording I / F 17, the monitor 19, and the CPU 20 are connected via a bus 21.

撮影レンズ11は、撮影倍率を変更するズームレンズや、合焦位置調節用のフォーカシングレンズなどの複数のレンズ群で構成されている。この撮影レンズ11は、レンズ駆動部(不図示)によって光軸方向の位置を調整可能に構成されている。なお、図1では撮影レンズ11を1枚のレンズで便宜上図示する。
撮像素子12は、撮影レンズ11を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。ここで、電子カメラの撮影モードでは、撮像素子12はレリーズ時に記録用画像(本画像)を撮影するとともに、撮影待機時にも所定間隔毎に間引き読み出しでスルー画像を出力する。上記のスルー画像のデータは、モニタ19での画像表示や、CPU20による各種の演算処理などに使用される。
The photographing lens 11 is composed of a plurality of lens groups such as a zoom lens for changing a photographing magnification and a focusing lens for adjusting a focus position. The photographing lens 11 is configured such that the position in the optical axis direction can be adjusted by a lens driving unit (not shown). In FIG. 1, the photographing lens 11 is illustrated as a single lens for convenience.
The image sensor 12 photoelectrically converts the light beam that has passed through the photographing lens 11 to generate an analog image signal of the subject image. Here, in the shooting mode of the electronic camera, the image sensor 12 captures a recording image (main image) at the time of release, and outputs a through image by thinning out at predetermined intervals even during standby for shooting. The through image data is used for image display on the monitor 19 and various arithmetic processes by the CPU 20.

アナログ処理部13は、CDS回路、ゲイン回路、A/D変換回路などを有するアナログフロントエンド回路である。CDS回路は、相関二重サンプリングによって撮像素子の出力のノイズ成分を低減する。ゲイン回路は入力信号の利得を増幅して出力する。このゲイン回路では、ISO感度に相当する撮像感度の調整を行うことができる。A/D変換回路は撮像素子の出力信号のA/D変換を行う。このA/D変換回路の出力はバッファメモリ14に接続されている。なお、図1では、アナログ処理部13における個々の回路の図示は省略する。   The analog processing unit 13 is an analog front end circuit having a CDS circuit, a gain circuit, an A / D conversion circuit, and the like. The CDS circuit reduces the noise component of the output of the image sensor by correlated double sampling. The gain circuit amplifies the gain of the input signal and outputs it. In this gain circuit, the imaging sensitivity corresponding to the ISO sensitivity can be adjusted. The A / D conversion circuit performs A / D conversion of the output signal of the image sensor. The output of this A / D conversion circuit is connected to the buffer memory 14. In FIG. 1, illustration of individual circuits in the analog processing unit 13 is omitted.

バッファメモリ14は、画像処理部15による画像処理や画像判定部16による画像解析の前後で撮影画像のデータを一時的に記録する。
画像処理部15は、上記の撮影モードにおいてレリーズ時のデジタル画像信号に各種の画像処理を施して本画像のデータを生成する。また、画像処理部15は、CPU20の指示によりスルー画像や本画像のデータからモニタ19の表示用画像を生成する。また、画像処理部15は、本画像のデータの圧縮伸長処理を実行することもできる。
The buffer memory 14 temporarily records captured image data before and after image processing by the image processing unit 15 and image analysis by the image determination unit 16.
The image processing unit 15 performs various kinds of image processing on the digital image signal at the time of release in the above-described shooting mode to generate data of the main image. Further, the image processing unit 15 generates a display image on the monitor 19 from data of the through image and the main image according to an instruction from the CPU 20. The image processing unit 15 can also execute compression / decompression processing of the data of the main image.

画像判定部16は、本画像のデータに対して画像解析を実行し、撮影画像が失敗画像であるか否かを判定する失敗画像判定処理を実行する。
記録I/F17には記録媒体22を接続するためのコネクタが形成されている。そして、記録I/F17は、コネクタに接続された記録媒体22に対してデータの書き込み/読み込みを実行する。上記の記録媒体22は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記録媒体22の一例としてメモリカードを図示する。
The image determination unit 16 performs an image analysis on the data of the main image, and executes a failure image determination process for determining whether or not the captured image is a failure image.
A connector for connecting the recording medium 22 is formed in the recording I / F 17. The recording I / F 17 executes data writing / reading with respect to the recording medium 22 connected to the connector. The recording medium 22 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the recording medium 22.

レリーズ釦18は、半押し操作による撮影前のAF動作開始の指示入力と、全押し操作による撮影時の露光開始の指示入力とをユーザーから受け付ける。なお、レリーズ釦18の出力はCPU20に接続されている。
モニタ19は、CPU20の指示に応じて各種画像を表示する。本実施形態でのモニタ19は液晶モニタで構成されている。このモニタ19には、撮影モードでの撮影待機時にスルー画像が動画表示される。また、画像判定部16が撮影失敗と判定した場合、モニタ19には判定の根拠となった失敗箇所を含む撮影画像の部分領域が拡大表示される。なお、モニタ19には、GUI(Graphical User Interface)形式で各種の設定項目の入力が可能なメニュー画面や、本画像の再生表示画面などを表示することもできる。
The release button 18 receives from the user an instruction input to start AF operation before shooting by a half-press operation and an instruction to start exposure at the time of shooting by a full-press operation. The output of the release button 18 is connected to the CPU 20.
The monitor 19 displays various images according to instructions from the CPU 20. The monitor 19 in this embodiment is a liquid crystal monitor. On the monitor 19, a through image is displayed as a moving image during shooting standby in the shooting mode. If the image determination unit 16 determines that the shooting has failed, the monitor 19 displays a magnified display of a partial area of the captured image that includes the failure location that is the basis for the determination. The monitor 19 can also display a menu screen on which various setting items can be input in a GUI (Graphical User Interface) format, a reproduction display screen of the main image, and the like.

CPU20は、電子カメラの各部の統括的な制御を行うプロセッサである。このCPU20は、スルー画像のデータに基づいて、コントラスト検出方式での公知のAF演算や、AE演算およびオートホワイトバランス(AWB)演算などを実行する。また、CPU20は、画像判定部16が失敗画像であると判定した場合に、その撮影画像が失敗画像であることを示す識別データを撮影画像のデータに対応付けして記録する。   The CPU 20 is a processor that performs overall control of each unit of the electronic camera. The CPU 20 executes a known AF calculation, AE calculation, auto white balance (AWB) calculation and the like in the contrast detection method based on the through image data. Further, when the image determination unit 16 determines that the image is a failed image, the CPU 20 records identification data indicating that the captured image is a failed image in association with the captured image data.

以下、本実施形態の電子カメラによる撮影時の動作の一例を、図2の流れ図を参照しつつ説明する。
ステップ101:CPU20は、撮像素子12を駆動させてスルー画像の取得を開始する。撮像素子12は所定間隔毎にスルー画像の画像信号を出力し、このスルー画像はモニタ19に順次表示される。そのため、モニタ19のスルー画像によってユーザーは撮影構図を決定することができる。
Hereinafter, an example of the operation at the time of photographing by the electronic camera of the present embodiment will be described with reference to the flowchart of FIG.
Step 101: The CPU 20 drives the imaging device 12 to start acquiring a through image. The image sensor 12 outputs an image signal of a through image at predetermined intervals, and the through image is sequentially displayed on the monitor 19. Therefore, the user can determine the shooting composition based on the through image on the monitor 19.

ステップ102:CPU20は、ユーザーによってレリーズ釦18が半押しされたか否かを判定する。レリーズ釦18が半押しされた場合(YES側)にはCPU20はS103に移行する。一方、レリーズ釦18が半押しされていない場合(NO側)には、CPU20はユーザーによるレリーズ釦18の半押し操作を待機する。
ステップ103:CPU20はスルー画像に基づいて撮影レンズ11のAFを実行する。また、CPU20はスルー画像のデータに基づいてAE演算およびAWB演算を実行し、本画像の撮影条件(露光時間、絞り値、撮像感度など)を決定する。
Step 102: The CPU 20 determines whether or not the release button 18 is half-pressed by the user. If the release button 18 is half-pressed (YES side), the CPU 20 proceeds to S103. On the other hand, when the release button 18 is not half-pressed (NO side), the CPU 20 waits for a half-press operation of the release button 18 by the user.
Step 103: The CPU 20 executes AF of the photographing lens 11 based on the through image. Further, the CPU 20 executes AE calculation and AWB calculation based on the data of the through image, and determines the shooting conditions (exposure time, aperture value, imaging sensitivity, etc.) of the main image.

ステップ104:CPU20は、ユーザーによってレリーズ釦18が全押しされたか否かを判定する。レリーズ釦18が全押しされた場合(YES側)にはCPU20はS105に移行する。一方、レリーズ釦18が全押しされていない場合(NO側)には、CPU20はユーザーによるレリーズ釦18の全押し操作を待機する。
ステップ105:CPU20は、S103の撮影条件に基づいて撮像素子12を駆動させて本画像を撮影する。そして、撮像素子12から出力された本画像の画像信号はアナログ処理部13を介してバッファメモリ14に一時的に記録される。
Step 104: The CPU 20 determines whether or not the release button 18 has been fully pressed by the user. When the release button 18 is fully pressed (YES side), the CPU 20 proceeds to S105. On the other hand, when the release button 18 is not fully pressed (NO side), the CPU 20 waits for the user to fully press the release button 18.
Step 105: The CPU 20 drives the image sensor 12 based on the shooting conditions in S103 to take a main image. The image signal of the main image output from the image sensor 12 is temporarily recorded in the buffer memory 14 via the analog processing unit 13.

ステップ106:画像処理部15は、CPU20の指示により、S105でバッファリングされた本画像のデータを読み込んで、欠陥画素補正、階調補正、補間、色変換などの画像処理を施す。その後に、画像処理部15は、上記した画像処理後の本画像のデータをJPEG形式などで圧縮する。なお、圧縮処理後の本画像のデータは、CPU20により最終的に記録媒体22に記録される。   Step 106: In response to an instruction from the CPU 20, the image processing unit 15 reads the main image data buffered in S105 and performs image processing such as defective pixel correction, gradation correction, interpolation, and color conversion. Thereafter, the image processing unit 15 compresses the data of the main image after the above-described image processing in the JPEG format or the like. The main image data after the compression processing is finally recorded on the recording medium 22 by the CPU 20.

ステップ107:また、画像処理部15は、CPU20の指示により本画像の解像度変換を行って、本画像の全体を縮小したフリーズ画像を生成する。そして、CPU20は、撮影後においてフリーズ画像をモニタ19に所定時間表示する。なお、S106およびS107の各動作はほぼ同時に行われる。
ステップ108:CPU20は、画像判定部16に対して失敗画像判定処理の実行を指示する。画像判定部16は、S105でバッファリングされた本画像のデータ(または記録媒体22に記録された本画像のデータ)を読み込んで、本画像が失敗画像であるか否かを判定する。そして、画像判定部16は本画像の解析結果のデータをCPU20に出力する。
Step 107: Further, the image processing unit 15 performs resolution conversion of the main image according to an instruction from the CPU 20, and generates a freeze image in which the entire main image is reduced. Then, the CPU 20 displays the freeze image on the monitor 19 for a predetermined time after shooting. Note that the operations of S106 and S107 are performed almost simultaneously.
Step 108: The CPU 20 instructs the image determination unit 16 to execute a failed image determination process. The image determination unit 16 reads the main image data buffered in S105 (or the main image data recorded on the recording medium 22) and determines whether the main image is a failed image. Then, the image determination unit 16 outputs the analysis result data of the main image to the CPU 20.

ここで、上記の解析結果のデータには、本画像が撮影失敗か否かを示すデータが含まれる。また、本画像が撮影失敗の場合の解析結果のデータには、撮影失敗の種類を示す失敗種別のデータ(例えば、手ブレなど)と、判定の根拠となった失敗箇所の位置を示す失敗箇所データ(例えば、失敗箇所を含んだ本画像の部分領域を指定するデータなど)とがさらに含まれる。なお、S108での失敗画像判定処理の具体的内容は図3を用いて後述する。   Here, the data indicating the analysis result includes data indicating whether or not the main image has failed to be captured. In addition, the analysis result data in the case where the main image has failed to capture includes failure type data indicating the type of shooting failure (for example, camera shake) and the failure location indicating the location of the failure location that is the basis for the determination. Data (for example, data specifying a partial region of the main image including a failed part) is further included. The specific content of the failed image determination process in S108 will be described later with reference to FIG.

ステップ109:CPU20は、S108の失敗画像判定処理の結果に基づいて、今回撮影した本画像が失敗画像であるか否かを判定する。本画像が失敗画像である場合(YES側)にはCPU20はS110に移行する。一方、本画像が失敗画像ではない場合(NO側)には、記録媒体22に本画像のデータが記録された後に、CPU20は一連の処理を終了し、次回撮影に向けて待機状態となる。   Step 109: The CPU 20 determines whether or not the main image captured this time is a failed image based on the result of the failed image determination process in S108. If the main image is a failed image (YES side), the CPU 20 proceeds to S110. On the other hand, when the main image is not a failed image (NO side), after the main image data is recorded on the recording medium 22, the CPU 20 ends a series of processes and enters a standby state for the next shooting.

ステップ110:CPU20は、本画像の失敗箇所をモニタ19に拡大表示する。具体的には、CPU20は解析結果のデータ(S108)のうちの失敗箇所データを、画像処理部15に出力する。画像処理部15は、上記の失敗箇所データに基づいて失敗箇所を含む本画像の部分領域をトリミングし、その部分領域の画像をモニタ19の解像度に合わせて拡大する。そして、CPU20は、上記の部分領域の拡大画像をモニタ19に所定時間表示する。   Step 110: The CPU 20 enlarges and displays the failed part of the main image on the monitor 19. Specifically, the CPU 20 outputs failure location data in the analysis result data (S 108) to the image processing unit 15. The image processing unit 15 trims the partial area of the main image including the failed part based on the failure part data, and enlarges the image of the partial area according to the resolution of the monitor 19. Then, the CPU 20 displays the enlarged image of the partial area on the monitor 19 for a predetermined time.

ステップ111:CPU20は、解析結果のデータ(S108)に基づいて、本画像が失敗画像であることを示す識別データを生成する。そして、CPU20は、上記の識別データを本画像のデータに対応付けして記録媒体22に記録する。その後、CPU20は一連の処理を終了し、次回撮影に向けて待機状態となる。
ここで、識別データには、上記の失敗種別のデータと失敗箇所データとを含めることができる。また、本画像のデータをExif(Exchangeable image file format for digital still cameras)規格に準拠したファイル形式で記録する場合には、MakerNoteタグを利用して種別データを本画像のデータファイルのヘッダに記録してもよい。勿論、種別データは、本画像のデータファイルと独立した別個のファイルで記録してもよい。
Step 111: Based on the analysis result data (S108), the CPU 20 generates identification data indicating that the main image is a failed image. Then, the CPU 20 records the identification data on the recording medium 22 in association with the data of the main image. Thereafter, the CPU 20 ends a series of processes and enters a standby state for the next shooting.
Here, the identification data can include the above-mentioned failure type data and failure location data. When recording the main image data in a file format that conforms to the Exif (Exchangeable image file format for digital still cameras) standard, the type data is recorded in the header of the main image data file using the MakerNote tag. May be. Of course, the type data may be recorded in a separate file independent of the data file of the main image.

次に、図3の流れ図を参照しつつ、上記の失敗画像判定処理(S108)を具体的に説明する。なお、図3では手ブレの検出の一例を説明する。
ステップ201:画像判定部16は、本画像のデータに対して2次元的な微分演算(例えば微分フィルタ処理など)を実行し、本画像の輪郭成分を抽出したエッジ抽出画像を生成する。
Next, the failure image determination process (S108) will be specifically described with reference to the flowchart of FIG. Note that FIG. 3 illustrates an example of camera shake detection.
Step 201: The image determination unit 16 performs a two-dimensional differential operation (for example, differential filter processing or the like) on the data of the main image to generate an edge extraction image obtained by extracting the contour component of the main image.

ステップ202:画像判定部16は、エッジ抽出画像(S201)を所定の大きさの矩形領域に分割する。一例として、本実施形態ではエッジ抽出画像を縦横にそれぞれ4等分して16個の矩形領域に分割する。そして、画像判定部16は、各々の矩形領域のうちで最もエッジ要素の多い矩形領域(すなわち、画素の値がゼロ値以外である非ゼロ画素の数が最も多い矩形領域)を注目領域に決定する。   Step 202: The image determination unit 16 divides the edge extraction image (S201) into rectangular regions of a predetermined size. As an example, in this embodiment, the edge extraction image is divided into four equal parts vertically and horizontally and divided into 16 rectangular areas. Then, the image determination unit 16 determines the rectangular area having the largest edge element among the rectangular areas (that is, the rectangular area having the largest number of non-zero pixels whose pixel values are other than zero) as the attention area. To do.

ステップ203:画像判定部16は、本画像においてエッジ抽出画像の注目領域(S202)の位置に対応する範囲を、本画像の注目領域として抽出する。なお、図4において、手ブレ状態の本画像を模式的に示す。また、図5において、図4の本画像から注目領域を抽出した結果を示す。
ステップ204:画像判定部16は、本画像の注目領域(S203)に対してフーリエ解析を実行する。そして、画像判定部16は、本画像の注目領域において、所定の周波数Fを上回る高域周波数成分のパワースペクトラムの総和を演算する。
Step 203: The image determination unit 16 extracts a range corresponding to the position of the attention area (S202) of the edge extracted image in the main image as the attention area of the main image. In FIG. 4, the main image in a camera shake state is schematically shown. FIG. 5 shows the result of extracting a region of interest from the main image of FIG.
Step 204: The image determination unit 16 performs a Fourier analysis on the attention area (S203) of the main image. Then, the image determination unit 16 calculates the sum of the power spectra of the high frequency components exceeding the predetermined frequency F in the attention area of the main image.

ステップ205:画像判定部16は、S204のパワースペクトラムの総和が閾値Tよりも大きいか否かを判定する。パワースペクトラムの総和が閾値Tよりも大きい場合(YES側)には、画像判定部16はS206に移行する。一方、パワースペクトラムの総和が閾値T以下の場合(NO側)には、画像判定部16はS207に移行する。
ステップ206:この場合には、画像判定部16は本画像が手ブレしていないと判定する。そして、画像判定部16は、本画像が撮影失敗ではない旨の解析結果データをCPU20に出力する。その後、CPU20は図2のS109に復帰する。
Step 205: The image determination unit 16 determines whether or not the sum of the power spectrum in S204 is larger than the threshold value T. If the sum of the power spectrum is larger than the threshold T (YES side), the image determination unit 16 proceeds to S206. On the other hand, when the sum total of the power spectrum is equal to or less than the threshold T (NO side), the image determination unit 16 proceeds to S207.
Step 206: In this case, the image determination unit 16 determines that the main image is not shaken. Then, the image determination unit 16 outputs to the CPU 20 analysis result data indicating that the main image is not a photographing failure. Thereafter, the CPU 20 returns to S109 in FIG.

ステップ207:この場合には、画像判定部16は本画像が手ブレしていると判定する。そして、画像判定部16は、本画像が撮影失敗である旨のデータと、手ブレを示す失敗種別のデータと、上記の注目領域を示す失敗箇所データとを含んだ解析結果データをCPU20に出力する。その後、CPU20は図2のS109に復帰する。ここで、図2のS110において、CPU20は本画像の注目領域を拡大した画像をモニタ19に表示すれば、本画像の失敗箇所を容易にユーザーに示すことができる。なお、図6において、図4の本画像に対応する拡大画像の表示例を示す。   Step 207: In this case, the image determination unit 16 determines that the main image is shaken. Then, the image determination unit 16 outputs to the CPU 20 analysis result data including data indicating that the main image has failed to be photographed, failure type data indicating camera shake, and failure location data indicating the region of interest. To do. Thereafter, the CPU 20 returns to S109 in FIG. Here, in S110 of FIG. 2, if the CPU 20 displays on the monitor 19 an image obtained by enlarging the attention area of the main image, the CPU 20 can easily indicate the failed part of the main image to the user. In addition, in FIG. 6, the example of a display of the enlarged image corresponding to the main image of FIG. 4 is shown.

以下、本実施形態における電子カメラの作用効果を述べる。
本実施形態の電子カメラでは、画像判定部16が失敗画像と判定した場合には、手ブレによる失敗箇所の拡大画像がモニタ19に表示される(S108〜S110)。したがって、モニタ19に表示された失敗箇所の拡大画像によって、ユーザーは今回撮影した失敗画像の状態を明確に認識することができる。そして、再撮影で撮影条件などをどのように修正すればよいか等の判断がユーザーにとって容易となり、より効率的な撮影が可能となる。
Hereinafter, the operational effects of the electronic camera in the present embodiment will be described.
In the electronic camera according to the present embodiment, when the image determination unit 16 determines that the image is a failure image, an enlarged image of the failure portion due to camera shake is displayed on the monitor 19 (S108 to S110). Therefore, the user can clearly recognize the state of the failed image captured this time from the enlarged image of the failed part displayed on the monitor 19. Then, it becomes easy for the user to determine how to correct the shooting conditions by re-shooting, and more efficient shooting is possible.

また、本実施形態では、画像判定部16が失敗画像と判定した場合には、本画像が失敗画像であることを示す識別データを本画像のデータに対応付けして記録媒体22に記録する(S111)。したがって、ユーザーは識別データを利用することで、記録媒体22にある撮影画像データ群から失敗画像に関するデータを容易に抽出することができる。
例えば、(1)記録媒体22にある本画像をスライドショーで順次再生するときに失敗画像のデータを一括して再生対象から除外することや、(2)失敗画像のデータを一括して記録媒体22から削除することや、(3)撮影終了後に失敗画像を加工して修正しようとする場合に修正対象の失敗画像のデータを選択することなどが容易に行える。また、識別データに含まれる失敗種別のデータを利用すれば、失敗画像を抽出するときの条件設定を細分化できる。この場合には、原因の異なる失敗画像を別々に抽出できるようになり、ユーザーの利便性が一層向上する。
In the present embodiment, when the image determination unit 16 determines that the image is a failed image, identification data indicating that the main image is a failed image is recorded on the recording medium 22 in association with the data of the main image ( S111). Therefore, the user can easily extract data relating to the failed image from the captured image data group in the recording medium 22 by using the identification data.
For example, (1) when the main images on the recording medium 22 are sequentially played back in a slide show, the data of the failed images are excluded from the playback target, and (2) the data of the failed images are batched. Can be easily deleted, and (3) when the failed image is processed and corrected after completion of shooting, the data of the failed image to be corrected can be easily selected. Further, if the failure type data included in the identification data is used, the condition setting for extracting the failure image can be subdivided. In this case, failure images with different causes can be extracted separately, which further improves user convenience.

(実施形態の補足事項)
(1)上記実施形態では、失敗画像判定処理で手ブレの検出を行う例を説明した。しかし、本発明はこれに限定されることなく、赤目、目つぶり、被写体ブレなどを失敗画像判定処理で検出することも可能である。
例えば、失敗画像判定処理において赤目を検出する場合には以下の要領で行うことができる。ここで、赤目とは、カメラ等を使用して人物をフラッシュ撮影したとき、撮影された人物の目がウサギの目のように赤く写る現象をいう。目が赤くなるのは目の網膜の毛細血管が写るためであり、正確には目の瞳孔部分が赤くなる。撮影条件によっては目が金色に写る場合もあり、このような金目も本明細書では赤目と称するものとする。
(Supplementary items of the embodiment)
(1) In the above embodiment, an example in which camera shake is detected in the failure image determination process has been described. However, the present invention is not limited to this, and it is also possible to detect red-eye, blinking eyes, subject blur, and the like by failure image determination processing.
For example, when red eyes are detected in the failure image determination process, it can be performed as follows. Here, the red eye refers to a phenomenon in which when a person is flash photographed using a camera or the like, the photographed person's eyes appear red like a rabbit eye. The eyes are red because the capillaries in the retina of the eye are reflected, and precisely the pupil part of the eyes is red. Depending on the shooting conditions, the eye may appear golden, and such a gold eye is also referred to as a red eye in this specification.

第1に、画像判定部16は、本画像のデータに対して公知の顔検出処理を実行する。一例として、画像判定部16は、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などの特徴点に基づいて本画像から顔領域を検出する。あるいは、画像判定部16は被写体の色情報に基いて肌色領域の輪郭を抽出し、さらに予め用意された顔部品のテンプレートとのマッチングを行って顔領域を検出してもよい。第2に、画像判定部16は、本画像から顔が検出できた場合には顔領域内から瞳領域を探索する。第3に、画像判定部16は、瞳領域の画素の色成分が赤目の条件式を満たすか否かを判定し、条件式を充足する場合には本画像を赤目状態の失敗画像と判定する。   First, the image determination unit 16 performs a known face detection process on the main image data. As an example, the image determination unit 16 detects a face area from the main image based on feature points such as eyebrow, eye, nose, and lip end points, face contour points, head vertices, and chin lower end points. Alternatively, the image determination unit 16 may extract the outline of the skin color area based on the color information of the subject, and may detect the face area by performing matching with a template of a face component prepared in advance. Second, the image determination unit 16 searches for a pupil region from the face region when a face can be detected from the main image. Third, the image determination unit 16 determines whether or not the color component of the pixel in the pupil region satisfies the conditional expression for red eyes. If the conditional expression is satisfied, the image determination unit 16 determines that the main image is a failed image in the red eye state. .

また、失敗画像判定処理において目つぶりを検出する場合には以下の要領で行うことができる。第1に、画像判定部16は、本画像のデータに対して公知の顔検出処理を実行する。第2に、第2に、画像判定部16は、本画像から顔が検出できた場合には顔領域内から目の部分を探索し、目の部分を検出できない場合に本画像を目つぶり状態の失敗画像と判定する。   Further, when detecting blinking in the failed image determination process, it can be performed in the following manner. First, the image determination unit 16 performs a known face detection process on the main image data. Second, secondly, the image determination unit 16 searches for the eye part from the face area when the face can be detected from the main image, and blinks the main image when the eye part cannot be detected. It is determined as a failed image.

さらに、失敗画像判定処理において被写体ブレを検出する場合には以下の要領で行うことができる。この場合には、画像判定部16は本画像のデータにウェーブレット解析を実行し、本画像のデータをLL、HL、LH、HHの4つのサブバンドに分割する。ここで、HLのサブバンドは高周波成分を垂直方向のみ含むので、横方向にぶれた被写体の輪郭は現れない。反対に、LHのサブバンドは高周波成分を水平方向のみ含むので、縦方向にぶれた被写体の輪郭は現れない。また、HHのサブバンドには、垂直方向および水平方向の両方の高周波成分が含まれる。したがって、画像判定部16はHLとHHとのサブバンドを対比することで、画像内で横方向にぶれた被写体のみを特定することができる。また、画像判定部16はLHとHHとのサブバンドを対比することで、画像内で縦方向にぶれた被写体のみを特定することができる。   Furthermore, when detecting a subject blur in the failed image determination process, it can be performed as follows. In this case, the image determination unit 16 performs wavelet analysis on the main image data, and divides the main image data into four subbands LL, HL, LH, and HH. Here, since the HL sub-band includes a high-frequency component only in the vertical direction, the contour of the subject blurred in the horizontal direction does not appear. On the other hand, since the LH subband includes a high-frequency component only in the horizontal direction, the contour of the subject blurred in the vertical direction does not appear. The HH subband includes high-frequency components in both the vertical direction and the horizontal direction. Therefore, the image determination unit 16 can identify only the subject that has shaken in the horizontal direction in the image by comparing the subbands of HL and HH. Further, the image determination unit 16 can identify only the subject that is blurred in the vertical direction in the image by comparing the subbands of LH and HH.

勿論、上記の失敗画像判定処理における各々のアルゴリズムはあくまで一例にすぎず、他の公知のアルゴリズムで置換してもかまわない。例えば、上記の手ブレの検出をウェーブレット解析による周波数解析で行うようにしてもよい。このときに、機械的なブレ検出センサ(不図示)の出力を利用して被写体ブレと手ブレとの区別を行うようにしてもよい。また、画像判定部16は、撮影のタイミングの異なる2つの画像を対比して被写体ブレを検出することもできる。   Of course, each algorithm in the above-described failure image determination processing is merely an example, and other known algorithms may be substituted. For example, the above-described camera shake detection may be performed by frequency analysis using wavelet analysis. At this time, it is also possible to distinguish between subject blur and camera shake using the output of a mechanical blur detection sensor (not shown). The image determination unit 16 can also detect subject blur by comparing two images with different shooting timings.

(2)上記実施形態において、CPU20はフリーズ画像の代わりに失敗箇所の拡大画像を撮影後に表示するようにしてもよい。
(3)上記実施形態での失敗画像の撮影時において、CPU20は失敗画像のデータを記録媒体22に記録をするか否かをユーザーに選択させるようにしてもよい。この場合には、撮影時において記録媒体22の記録容量をより有効に活用することができる。
(2) In the above-described embodiment, the CPU 20 may display an enlarged image of the failed part after shooting instead of the freeze image.
(3) At the time of shooting a failed image in the above embodiment, the CPU 20 may cause the user to select whether or not to record the failed image data on the recording medium 22. In this case, the recording capacity of the recording medium 22 can be utilized more effectively during shooting.

(4)上記実施形態での失敗画像の撮影時において、CPU20は本画像のデータに識別データを対応付けして記録媒体22に記録することのみを行って、モニタ19による失敗箇所の拡大表示を省略するようにしてもよい。
なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態は、あらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
(4) At the time of shooting the failed image in the above embodiment, the CPU 20 only associates the identification data with the main image data and records it on the recording medium 22, and displays an enlarged display of the failed part on the monitor 19. It may be omitted.
It should be noted that the present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

本実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of this embodiment 本実施形態の電子カメラによる撮影時の動作の一例を示す流れ図A flowchart showing an example of an operation at the time of photographing by the electronic camera of the present embodiment 図2のS108の失敗画像判定処理を説明する流れ図FIG. 2 is a flowchart for explaining the failed image determination process in S108 of FIG. 手ブレ状態の本画像を模式的に示す図The figure which shows this book image of the camera shake state typically 図4の本画像から注目領域を抽出した結果を示す図The figure which shows the result of having extracted the attention area | region from the main image of FIG. 図4の本画像に対応する拡大画像の表示例を示す図The figure which shows the example of a display of the enlarged image corresponding to the main image of FIG.

符号の説明Explanation of symbols

11…撮影レンズ、12…撮像素子、13…アナログ処理部、14…バッファメモリ、15…画像処理部、16…画像判定部、17…記録I/F、18…レリーズ釦、19…モニタ、20…CPU、21…バス、22…記録媒体 DESCRIPTION OF SYMBOLS 11 ... Shooting lens, 12 ... Image sensor, 13 ... Analog processing part, 14 ... Buffer memory, 15 ... Image processing part, 16 ... Image determination part, 17 ... Recording I / F, 18 ... Release button, 19 ... Monitor, 20 ... CPU, 21 ... bus, 22 ... recording medium

Claims (6)

被写体像を撮影して撮影画像のデータを生成する撮像部と、
前記撮影画像が失敗画像であるか否かを判定する画像判定部と、
前記画像判定部が前記失敗画像であると判定した場合に、失敗箇所を含む前記失敗画像の部分領域を拡大表示する表示部と、
を備えることを特徴とする電子カメラ。
An imaging unit that captures a subject image and generates data of the captured image;
An image determination unit for determining whether the captured image is a failure image;
When the image determination unit determines that the image is a failure image, a display unit that enlarges and displays a partial area of the failure image including a failure point;
An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
前記画像判定部は、前記撮影画像のデータに対して画像解析を実行し、前記画像解析で前記失敗箇所を検出した場合に前記撮影画像を前記失敗画像と判定することを特徴とする電子カメラ。
The electronic camera according to claim 1,
The image determination unit performs image analysis on data of the captured image, and determines the captured image as the failed image when the failure location is detected in the image analysis.
請求項2に記載の電子カメラにおいて、
前記画像判定部は、前記撮影画像を複数の小領域に分割して前記画像解析を実行し、
前記表示部は、前記失敗箇所が検出された前記小領域の画像を拡大表示することを特徴とする電子カメラ。
The electronic camera according to claim 2,
The image determination unit divides the photographed image into a plurality of small regions, performs the image analysis,
The electronic camera is characterized in that the display unit displays an enlarged image of the small area in which the failed part is detected.
請求項1から請求項3のいずれか1項に記載の電子カメラにおいて、
前記失敗画像は、手ブレ、被写体ブレ、赤目状態、目つぶり状態のいずれかに起因する撮影失敗を含むものであることを特徴とするカメラ。
The electronic camera according to any one of claims 1 to 3,
The camera according to claim 1, wherein the failed image includes a shooting failure caused by any of camera shake, subject blur, red-eye state, and blinking state.
請求項1から請求項4のいずれか1項に記載の電子カメラにおいて、
前記画像判定部が前記失敗画像であると判定した場合に、前記失敗画像であることを示す識別データを前記撮影画像のデータに対応付けする識別データ生成部をさらに備えることを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 4,
An electronic camera, further comprising: an identification data generation unit that associates identification data indicating the failure image with data of the captured image when the image determination unit determines that the image is the failure image .
請求項5に記載の電子カメラにおいて、
前記識別データ生成部は、撮影失敗の種類を示す失敗種別データを前記識別データにさらに含めることを特徴とする電子カメラ。
The electronic camera according to claim 5,
The identification data generation unit further includes failure type data indicating a type of shooting failure in the identification data.
JP2006271162A 2006-10-02 2006-10-02 Electronic camera Withdrawn JP2008092299A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006271162A JP2008092299A (en) 2006-10-02 2006-10-02 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006271162A JP2008092299A (en) 2006-10-02 2006-10-02 Electronic camera

Publications (1)

Publication Number Publication Date
JP2008092299A true JP2008092299A (en) 2008-04-17

Family

ID=39375957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006271162A Withdrawn JP2008092299A (en) 2006-10-02 2006-10-02 Electronic camera

Country Status (1)

Country Link
JP (1) JP2008092299A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009267696A (en) * 2008-04-24 2009-11-12 Canon Inc Image processing apparatus, control method for the same, and program
JP2010062715A (en) * 2008-09-02 2010-03-18 Nikon Corp Electronic still camera
WO2010105212A1 (en) * 2009-03-12 2010-09-16 Qualcomm Incorporated Response to detection of blur in an image
JP2013070315A (en) * 2011-09-26 2013-04-18 Casio Comput Co Ltd Image processor, image management method and program
US8711265B2 (en) 2008-04-24 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus, control method for the same, and storage medium
WO2015040935A1 (en) 2013-09-17 2015-03-26 オリンパス株式会社 Imaging device, imaging method, and image display program
JP2015215724A (en) * 2014-05-09 2015-12-03 日本電信電話株式会社 Display area control device, display area control method, and display area control program
US9253406B2 (en) 2013-03-15 2016-02-02 Casio Computer Co., Ltd. Image capture apparatus that can display review image, image capture method, and storage medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009267696A (en) * 2008-04-24 2009-11-12 Canon Inc Image processing apparatus, control method for the same, and program
US8711265B2 (en) 2008-04-24 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus, control method for the same, and storage medium
JP2010062715A (en) * 2008-09-02 2010-03-18 Nikon Corp Electronic still camera
WO2010105212A1 (en) * 2009-03-12 2010-09-16 Qualcomm Incorporated Response to detection of blur in an image
US8498486B2 (en) 2009-03-12 2013-07-30 Qualcomm Incorporated Response to detection of blur in an image
KR101297524B1 (en) * 2009-03-12 2013-08-16 퀄컴 인코포레이티드 Response to detection of blur in an image
JP2013070315A (en) * 2011-09-26 2013-04-18 Casio Comput Co Ltd Image processor, image management method and program
US9253406B2 (en) 2013-03-15 2016-02-02 Casio Computer Co., Ltd. Image capture apparatus that can display review image, image capture method, and storage medium
WO2015040935A1 (en) 2013-09-17 2015-03-26 オリンパス株式会社 Imaging device, imaging method, and image display program
US9756235B2 (en) 2013-09-17 2017-09-05 Olympus Corporation Photographing apparatus, photographing method and recording medium on which photographing/display program is recorded
US10367990B2 (en) 2013-09-17 2019-07-30 Olympus Corporation Photographing apparatus, photographing method and recording medium on which photographing/display program is recorded
JP2015215724A (en) * 2014-05-09 2015-12-03 日本電信電話株式会社 Display area control device, display area control method, and display area control program

Similar Documents

Publication Publication Date Title
US7453506B2 (en) Digital camera having a specified portion preview section
JP4746295B2 (en) Digital camera and photographing method
JP5087856B2 (en) Electronic camera
JP4935302B2 (en) Electronic camera and program
JP4888191B2 (en) Imaging device
JP2006227080A (en) Electronic camera
JP2011010275A (en) Image reproducing apparatus and imaging apparatus
JP2008092299A (en) Electronic camera
JP2007282119A (en) Electronic camera and image processing apparatus
TWI469085B (en) Image processing apparatus, image processing method and computer readable storage medium
JP4127521B2 (en) Digital camera and control method thereof
CN106961556B (en) Camera and electronic apparatus
JP2007282118A (en) Electronic camera and image processing apparatus
JP5949559B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US7864860B2 (en) Image pickup apparatus and motion vector deciding method
JP2005323015A (en) Digital camera
JP5073602B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2003283902A (en) Digital steel camera and image processor
JP4534750B2 (en) Image processing apparatus and image processing program
JP2010199681A (en) Image processing apparatus and program
JP2007208355A (en) Photographing device, method, and program
JP2006345503A (en) Imaging apparatus, imaging method, image processing apparatus, image processing method and program
JP2017192114A (en) Image processing apparatus and image processing method, program, and storage medium
JP2007249526A (en) Imaging device, and face area extraction method
JP2010119051A (en) Imaging device and imaging method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100105