JP2010081528A - Image processing apparatus, method and program - Google Patents

Image processing apparatus, method and program Download PDF

Info

Publication number
JP2010081528A
JP2010081528A JP2008250415A JP2008250415A JP2010081528A JP 2010081528 A JP2010081528 A JP 2010081528A JP 2008250415 A JP2008250415 A JP 2008250415A JP 2008250415 A JP2008250415 A JP 2008250415A JP 2010081528 A JP2010081528 A JP 2010081528A
Authority
JP
Japan
Prior art keywords
image
unit
failed
feature amount
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008250415A
Other languages
Japanese (ja)
Inventor
Hisashi Obara
寿 小原
Shinji Chiba
信二 千葉
Naoaki Hatano
直明 秦野
Hiromichi Watanabe
啓倫 渡邊
Hiroshi Yamaji
啓 山路
Ichigaku Mino
一学 三野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008250415A priority Critical patent/JP2010081528A/en
Publication of JP2010081528A publication Critical patent/JP2010081528A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily and surely secure an image that enables a failed image to be complemented. <P>SOLUTION: When it is determined that a portion of a registered failed image belongs to a through-picture or that a feature quantity in capturing the through-picture is matched with a feature quantity of the failed image, a CPU 112 instructs a camera 10-B (or a sub imaging section 20) to start capturing a complementary image. When the camera 10-B receives the instruction via a communication I/F 76, thereafter, an image is periodically captured by an imaging section 102-B and captured images are sequentially stored in an image storage section 132-B as complementary images. This is also achieved by capturing a frame image of a moving picture or by consecutively photographing a still picture. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像の内容に応じた処理を行う装置、方法およびプログラムに関する。   The present invention relates to an apparatus, a method, and a program for performing processing according to the contents of an image.

特許文献1は、カメラ撮影部で撮影した画像を画像メモリに一旦記憶し、画像メモリの撮影画像の撮影状態をCPUによって解析し、被写体候補の顔切れや、被写体候補の撮影範囲内に占める割合等を判断し、また被写体の配置バランスや重なり度等を判断し、失敗撮影の可能性が高い画像の登録を防止する。また、一旦登録した画像であっても、記録媒体から登録画像を読み出し、画像内容の判断を行い、失敗撮影の可能性が高い登録画像を削除し、記録媒体の記憶領域を有効利用する。   In Patent Document 1, an image captured by a camera capturing unit is temporarily stored in an image memory, and a captured state of a captured image in the image memory is analyzed by a CPU. And the like, and the arrangement balance of the subject, the degree of overlap, and the like are determined to prevent registration of an image having a high possibility of failed shooting. Further, even for an image that has been registered once, the registered image is read from the recording medium, the image content is judged, the registered image that has a high possibility of failed photographing is deleted, and the storage area of the recording medium is effectively used.

特許文献2では、CPUは、写真撮影の際に、同一人物を被写体として複数枚(例えば、6枚)連続撮影することによって得られた各撮影画像の中から特定の人物部分を抽出すると共に、この特定人物部分を解析しながらその撮影状態を「顔の向き具合」、「顔の隠れ具合」、「目の開き具合」毎に評価し、撮影画像毎に評価された特定人物部分の評価結果のうち、高い評価を得た特定人物部分を含む撮影画像を特定する。   In Patent Document 2, the CPU extracts a specific person portion from each captured image obtained by continuously capturing a plurality of (for example, six) images of the same person as a subject at the time of photographing, While analyzing this specific person part, the shooting state is evaluated for each “face orientation”, “face hiding condition”, and “eye opening condition”, and the evaluation result of the specific person part evaluated for each captured image Among them, a photographed image including a specific person portion that has been highly evaluated is identified.

特許文献3の画像処理装置は、個人の身体的な部位の特徴量を登録する登録装置と、画像情報を入力する入力手段と、入力画像中に撮影されている被写体の人物を特定する特定手段と、被写体の画像中の画像欠陥部を検出する検出手段と、登録装置から特定人物の登録情報を検索する検索手段と、検索した登録情報を基に、画像欠陥部を補正する補正手段と、を有することを特徴とする。   An image processing apparatus disclosed in Patent Literature 3 includes a registration device that registers a feature quantity of a physical part of an individual, an input unit that inputs image information, and a specifying unit that specifies a person who is a subject photographed in the input image. Detection means for detecting an image defect portion in the image of the subject, search means for searching for registration information of a specific person from the registration device, correction means for correcting the image defect portion based on the searched registration information, It is characterized by having.

特許文献4では、ある時刻におけるフレーム画像の前後は、ほぼ同一のシーンが写っているから、画面が完全に静止している場合、静止時間中の複数フレーム画像の平均値をとれば、撮像入力系から記録系の間に発生するノイズを効果的に除去することができるとする。   In Patent Document 4, since almost the same scene is captured before and after a frame image at a certain time, when the screen is completely stationary, if an average value of a plurality of frame images during the stationary time is taken, imaging input is performed. It is assumed that noise generated between the system and the recording system can be effectively removed.

特許文献5では、目が閉じていると判断された目領域を有する顔領域内部の属性を変更し、属性の変更された顔領域の映像信号を生成させ、これを記録用画像と合成してLCDに表示させる。また、記録用画像の中から選択された所望の画像の「切り抜き顔領域」を目つぶりの検出された顔領域に貼り付けるとする。   In Patent Document 5, an attribute inside a face area having an eye area determined to have eyes closed is changed, a video signal of the face area with the changed attribute is generated, and this is combined with a recording image. Display on LCD. Further, it is assumed that a “cut-out face area” of a desired image selected from the recording images is pasted on the face area where the blinking is detected.

非特許文献1は、膨大な量の画像から、補完対象画像を解析し、画像の不要部分を補完する。
特開2005−20196号公報 特開2005−45600号公報 特開2006−23949号公報 特開2008−99327号公報 特開2008−131094号公報 「Web2.0時代の画像補完技術」、インターネットURL[http://www.atmarkit.co.jp/news/200708/29/sc.html]、平成20年8月28日検索
Non-Patent Document 1 analyzes a complement target image from a huge amount of images and complements an unnecessary part of the image.
JP 2005-20196 A JP 2005-45600 A JP 2006-23949 A JP 2008-99327 A JP 2008-131094 A “Image Completion Technology in the Age of Web 2.0”, Internet URL [http://www.atmarkit.co.jp/news/200708/29/sc.html], search on August 28, 2008

特許文献1では、失敗画像の削除はできるが、失敗画像の補完はできない。特許文献2では、評価の高い撮影画像を特定できるが、失敗部分の補完はできない。   In Patent Document 1, the failed image can be deleted, but the failed image cannot be complemented. In Patent Document 2, a photographed image having a high evaluation can be specified, but a failed part cannot be complemented.

特許文献3では、顔情報解析により失敗画像の補完を行うため、予め顔情報の登録が必要であり、顔以外には適用できない。   In Patent Literature 3, since failure images are complemented by face information analysis, face information must be registered in advance, and cannot be applied to other than faces.

特許文献4では、ノイズ除去はできるが失敗部分の補完はできない。   In Patent Literature 4, noise can be removed, but the failed portion cannot be complemented.

特許文献5では、そもそも目瞑り顔画像の補完に必要な画像が予め確保されていなければ、そのような画像が確実に得られる保証がない。   In Patent Document 5, there is no guarantee that such an image can be obtained with certainty unless an image necessary for the eye-medicating face image is secured in advance.

非特許文献1では、膨大な量の画像解析が必要であり、処理の負荷が大きい。   In Non-Patent Document 1, a huge amount of image analysis is required, and the processing load is large.

本発明は、失敗画像の補完を可能にする画像の簡易で確実な確保を目的とする。   An object of the present invention is to easily and reliably secure an image that enables complementation of a failed image.

本発明に係る画像処理装置は、撮影の成功または失敗の基準となる基準画像もしくはその特徴量を登録する登録部と、所望の画像もしくはその特徴量と、登録部の登録した基準画像もしくはその特徴量とを比較し、比較結果に応じて、所望の画像が撮影に失敗した画像であるか否かを判断する判断部と、判断部の判断結果に応じて、補完用画像の出力を所定の画像出力装置に指示する制御部と、を備える。   An image processing apparatus according to the present invention includes a registration unit for registering a reference image or a feature amount thereof as a reference for success or failure of photographing, a desired image or a feature amount thereof, and a reference image registered by the registration unit or a feature thereof. A determination unit that determines whether or not a desired image is an image that has failed to be photographed according to the comparison result, and outputs a complementary image according to the determination result of the determination unit. A control unit that instructs the image output apparatus.

ここで、画像出力装置とは、撮像装置のように画像を取得する装置の他、画像サーバのように撮像装置を備えないが画像を蓄積する装置も含みうる。   Here, the image output device may include a device that does not include an imaging device such as an image server but accumulates images, in addition to a device that acquires an image such as an imaging device.

登録部は、撮影の失敗の基準となる失敗基準画像もしくはその特徴量を登録し、判断部は、所望の画像もしくはその特徴量と、登録部の登録した失敗基準画像もしくはその特徴量とを比較し、両者の一致に応じて、所望の画像が撮影に失敗した画像であるか否かを判断する。   The registration unit registers a failure reference image or its feature value that is a criterion for shooting failure, and the determination unit compares the desired image or its feature value with the failure reference image registered by the registration unit or its feature value. Then, according to the coincidence between the two, it is determined whether or not the desired image is an image for which photographing has failed.

登録部は、撮影の成功の基準となる成功基準画像もしくはその特徴量を登録し、判断部は、所望の画像もしくはその特徴量と、登録部の登録した成功基準画像もしくはその特徴量とを比較し、両者の不一致に応じて、所望の画像が撮影に失敗した画像であるか否かを判断する。   The registration unit registers the success reference image or its feature value, which is a reference for the success of shooting, and the judgment unit compares the desired image or its feature value with the success reference image registered by the registration unit or its feature value. Then, it is determined whether or not the desired image is an image that has failed to be photographed in accordance with the mismatch.

登録部は、撮影の失敗の基準となる失敗基準画像もしくはその特徴量を登録し、
判断部は、所望の画像もしくはその特徴量と、登録部の登録した失敗基準画像とを比較し、両者の不一致に応じて、所望の画像が撮影に成功した画像であるか否かを判断する。
The registration unit registers a failure reference image or its feature value that is a reference for shooting failure,
The determination unit compares the desired image or the feature amount thereof with the failure reference image registered by the registration unit, and determines whether the desired image is an image that has been successfully photographed according to the mismatch between the images. .

登録部は、撮影の成功の基準となる成功基準画像もしくはその特徴量を登録し、判断部は、所望の画像もしくはその特徴量と、登録部の登録した成功基準画像とを比較し、両者の一致に応じて、所望の画像が撮影に成功した画像であるか否かを判断する。   The registration unit registers a success reference image or its feature value that is a reference for the success of shooting, and the determination unit compares the desired image or its feature value with the success reference image registered by the registration unit, and In accordance with the coincidence, it is determined whether or not the desired image has been successfully captured.

判断部の判断結果に応じ、成功画像の取得条件が整った旨を通知する成功通知部を備える。   A success notifying unit for notifying that the acquisition condition of the success image has been prepared according to the determination result of the determining unit.

所望の画像から、登録部の登録した失敗基準画像もしくはその特徴量と一致する失敗部分を特定する失敗部分特定部を備える。   A failure part specifying unit that specifies a failure part that matches the failure reference image registered by the registration unit or its feature amount from a desired image is provided.

判断部の判断結果および/または失敗部分特定部の特定した失敗部分を通知する失敗通知部を備える。   A failure notification unit is provided for notifying the determination result of the determination unit and / or the failure part specified by the failure part specifying unit.

所定の画像出力装置が出力した補完用画像を入力する補完用画像入力部と、補完用画像入力部が入力した補完用画像によって、所望の画像のうち失敗部分特定部の特定した失敗部分を修正する修正部と、を備える。   The failure portion specified by the failure portion specifying portion of the desired image is corrected by the complementary image input portion for inputting the complementary image output from the predetermined image output device and the complementary image input by the complementary image input portion. A correction unit.

失敗部分特定部の特定した失敗部分のうち、修正すべき失敗部分の選択を受け付ける選択部を備え、修正部は、選択部が選択を受け付けた失敗部分を補完用画像で修正する。   Of the failed parts identified by the failed part identifying unit, a selection unit that accepts selection of a failed part to be corrected is provided, and the correcting unit corrects the failed part that the selecting unit has accepted the selection with a complementary image.

選択部は、修正部が修正した画像のうち元に戻したい部分の選択を受け付け、修正部は、選択部が選択を受け付けた部分を元の失敗部分に戻す。   The selection unit accepts selection of a part to be restored in the image modified by the modification unit, and the modification unit returns the part accepted by the selection unit to the original failed part.

修正部が修正した画像を出力する出力部を備える。   An output unit that outputs an image corrected by the correction unit is provided.

撮像レンズを介して受光した被写体像を光電変換して得られた電気信号を画像に変換して出力する第1の撮像部を備え、判断部は、第1の撮像部の出力した画像もしくはその特徴量と、登録部の登録した基準画像もしくはその特徴量とを比較し、比較結果に応じて、第1の撮像部の出力した画像が撮影に失敗した画像であるか否かを判断し、制御部は、判断部の判断結果に応じ、第1の撮像部または第1の撮像部以外の第2の撮像部を有する第2の撮像装置に補完用画像の取得を指示する。   A first imaging unit that converts an electrical signal obtained by photoelectrically converting a subject image received through the imaging lens into an image and outputs the image; and the determination unit outputs an image output from the first imaging unit or its image Compare the feature amount with the reference image registered by the registration unit or the feature amount, and determine whether the image output by the first imaging unit is an image that has failed to be photographed according to the comparison result, The control unit instructs the second imaging device having the first imaging unit or the second imaging unit other than the first imaging unit to acquire a complementary image according to the determination result of the determination unit.

第1の撮像部の出力した画像は第1の撮像部に対する本撮像指示が入力される前に出力されたスルー画像を含む。   The image output by the first imaging unit includes a through image output before the main imaging instruction is input to the first imaging unit.

補完用画像は第1の撮像部に対する本撮像指示が入力される前後に第1の撮像部または第2の撮像部が取得した静止画または動画を含む。   The complementary image includes still images or moving images acquired by the first imaging unit or the second imaging unit before and after the main imaging instruction is input to the first imaging unit.

基準画像の特徴量は、画像データの値に関連する第1の特徴量および画像データの撮影時の状況に関連する第1の特徴量以外の特徴量である第2の特徴量のうち少なくとも一方を含む。   The feature amount of the reference image is at least one of the first feature amount related to the value of the image data and the second feature amount that is a feature amount other than the first feature amount related to the situation at the time of shooting the image data. including.

本発明に係る画像処理方法は、コンピュータが、撮影の成功または失敗の基準となる基準画像もしくはその特徴量を登録するステップと、所望の画像もしくはその特徴量と、登録した基準画像もしくはその特徴量とを比較し、比較結果に応じて、所望の画像が撮影に失敗した画像であるか否かを判断するステップと、判断結果に応じて、補完用画像の出力を所定の画像出力装置に指示するステップと、を実行する。
この画像処理方法をコンピュータに実行させるための画像処理プログラムも本発明に含まれる。
The image processing method according to the present invention includes a step in which a computer registers a reference image or a feature amount thereof as a reference for success or failure of photographing, a desired image or a feature amount thereof, and a registered reference image or a feature amount thereof. And determining whether or not a desired image is an image that has failed to be photographed according to the comparison result, and instructing a predetermined image output device to output a complementary image according to the determination result. And executing a step.
An image processing program for causing a computer to execute this image processing method is also included in the present invention.

この発明によると、所望の画像もしくはその特徴量と登録された失敗画像もしくはその特徴量との比較に応じて、補完用画像の取得が所定の画像取得装置に指示される。すなわち、本撮影に先立ち、失敗画像が撮影される可能性が高くなったら、その失敗画像を補完する補完用画像を確保でき、後に失敗画像を確実に補完できる。   According to the present invention, a predetermined image acquisition device is instructed to acquire a complementary image in accordance with a comparison between a desired image or its feature value and a registered failed image or its feature value. In other words, if the possibility that a failed image is captured prior to the actual shooting is increased, a complementary image that complements the failed image can be secured, and the failed image can be reliably complemented later.

<第1実施形態>
図1は本発明の好ましい実施形態に係るデジタルカメラ10の機能ブロック図である。まず、同図のデジタルカメラ10において、情報処理装置(CPUの他、CPUの情報処理に必要な周辺機器、例えばROM、RAM、I/Oなども含まれる。便宜上これらをまとめてCPUと呼ぶ)112は、レリーズスイッチ、モードダイヤル等を含む操作部113の各種のボタンやキーからの入力に基づいてデジタルカメラ10内の各回路を統括制御する。CPU112の実行するプログラムは記憶部119のROMに記憶される。
<First Embodiment>
FIG. 1 is a functional block diagram of a digital camera 10 according to a preferred embodiment of the present invention. First, in the digital camera 10 shown in the figure, an information processing apparatus (in addition to the CPU, peripheral devices necessary for information processing of the CPU, such as ROM, RAM, I / O, etc. are included. These are collectively referred to as a CPU for convenience). 112 controls each circuit in the digital camera 10 based on inputs from various buttons and keys of the operation unit 113 including a release switch, a mode dial, and the like. A program executed by the CPU 112 is stored in the ROM of the storage unit 119.

撮像部102は、ズームレンズおよびフォーカスレンズを含む撮像レンズ、撮像レンズを駆動するモータ、CPU112の指令に従ってモータを駆動するモータドライバ、撮像レンズの結像した被写体像を受光して光電変換し、アナログ画像信号として出力するCCDやCMOSなどの固体撮像素子を含む。   The image pickup unit 102 receives an image pickup lens including a zoom lens and a focus lens, a motor for driving the image pickup lens, a motor driver for driving the motor in accordance with a command from the CPU 112, receives a subject image formed by the image pickup lens, performs photoelectric conversion, and performs analog conversion. It includes a solid-state imaging device such as a CCD or CMOS that outputs as an image signal.

いま、モードダイヤルによって静止画撮影モードが設定されると、CPU112は、撮像部102から順次得られるコマ画像(スルー画)を表示部110に表示させ、撮影画角を確認可能にする。   Now, when the still image shooting mode is set by the mode dial, the CPU 112 displays the frame images (through images) sequentially obtained from the imaging unit 102 on the display unit 110 so that the shooting angle of view can be confirmed.

撮像部102は、A/Dコンバータ、ゲイン調整回路、画像信号処理回路、ホワイトバランス補正回路、ガンマ補正回路、YC処理回路、輝度・色差信号生成回路、シャープネス補正回路、コントラスト補正回路、撮影画像に対する輪郭補正を含む画像処理を行う輪郭処理部、画像のノイズ低減処理を行うノイズ低減処理部等を含む画像処理手段を含み、CPU112からのコマンドに従って画像信号を処理し、デジタル画像データに変換する。   The imaging unit 102 includes an A / D converter, a gain adjustment circuit, an image signal processing circuit, a white balance correction circuit, a gamma correction circuit, a YC processing circuit, a luminance / color difference signal generation circuit, a sharpness correction circuit, a contrast correction circuit, and a captured image. An image processing unit including an outline processing unit that performs image processing including contour correction, a noise reduction processing unit that performs image noise reduction processing, and the like is processed, and an image signal is processed according to a command from the CPU 112 and converted into digital image data.

撮像部102から出力された画像データは、輝度信号(Y信号)及び色差信号(Cr、Cl信号)に変換されるとともに、ガンマ補正等の所定の処理が施された後、記憶部119のVRAMに格納される。   The image data output from the imaging unit 102 is converted into a luminance signal (Y signal) and a color difference signal (Cr, Cl signal), and subjected to predetermined processing such as gamma correction, and then the VRAM in the storage unit 119. Stored in

一方、画像データは、ハイパスフィルタ(HPF)125でG画素成分のみ抽出される。そして、積算部126で抽出されたG画素成分に積算処理が施されてCPU112に送られる。CPU112は、積算部126から送られた1画面分の分割領域(例えば64分割)の画像データの内、十字キーで任意に設定された被写体中心付近のエリア(例えば4エリア)の平均値を算出し、これをオートフォーカス(AF)評価値とする。AF評価値は、所定周期の経過毎に算出され、算出の度に記憶部119に更新記憶される。CPU112は、AF評価値に従って被写体の合焦するレンズ位置を判定する。その判断方法は任意であるが、例えばAF評価値が極大点の近傍に略到達しているか否かを判断し、極大点に略達している場合は合焦していると判断し、その他の場合は合焦していないと判断する(コントラストAF)。あるいは、AF評価値が所定の閾値を超えていれば合焦していると判断することもできる。   On the other hand, only the G pixel component is extracted from the image data by the high pass filter (HPF) 125. Then, the G pixel component extracted by the integration unit 126 is integrated and sent to the CPU 112. The CPU 112 calculates an average value of areas near the subject center (for example, four areas) arbitrarily set with the cross key among the image data of the divided areas (for example, 64 divisions) for one screen sent from the integrating unit 126. This is used as an autofocus (AF) evaluation value. The AF evaluation value is calculated every elapse of a predetermined period, and updated and stored in the storage unit 119 each time it is calculated. The CPU 112 determines the lens position at which the subject is focused according to the AF evaluation value. The determination method is arbitrary. For example, it is determined whether or not the AF evaluation value has substantially reached the vicinity of the maximum point. If the AF evaluation value has substantially reached the maximum point, the AF evaluation value is determined to be in focus. In this case, it is determined that the subject is not in focus (contrast AF). Alternatively, if the AF evaluation value exceeds a predetermined threshold, it can be determined that the subject is in focus.

撮影画像を表示部110にモニタ出力する場合、VRAMからYC信号が読み出され、ビデオエンコーダ134に送られる。ビデオエンコーダ134は、入力されたYC信号を表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換して表示部110に出力する。   When the captured image is output to the display unit 110 on the monitor, the YC signal is read from the VRAM and sent to the video encoder 134. The video encoder 134 converts the input YC signal into a predetermined display signal (for example, an NTSC color composite video signal) and outputs the converted signal to the display unit 110.

所定のフレームレートで処理された各フレームのYC信号は、VRAMに順次書き込まれ、そのYC信号から生成される映像信号が表示部110に供給されることにより、撮像中の映像がリアルタイムに表示部110に表示される。ユーザは、表示部110に表示される映像(スルー)によって撮影画角を確認できる。   The YC signal of each frame processed at a predetermined frame rate is sequentially written in the VRAM, and a video signal generated from the YC signal is supplied to the display unit 110, so that the image being captured is displayed in real time. 110. The user can check the shooting angle of view from the video (through) displayed on the display unit 110.

ここで、レリーズスイッチが半押しされると、AE及びAF処理が開始される。AE/AF処理が行われ、レリーズスイッチが全押しされることによって記録用の撮影動作がスタートする。レリーズスイッチの全押しに応動して取得された記録用の画像データは、画像記憶部132に格納される。動画の取込みの場合には、上記のような画像の取込みが連続的に行われると共に、各画像はフレーム画像(コマ画像)として動画を構成する。動画の取り込みは、レリーズスイッチの1回目の全押しで開始し、2回目の全押しで終了する。あるいは全押しが継続している間に限って動画の取り込みを行う。動画の取得に合わせて、マイク17から集音された音も同期して取り込むことができる。   Here, when the release switch is half-pressed, the AE and AF processes are started. The AE / AF process is performed, and the recording operation is started when the release switch is fully pressed. The image data for recording acquired in response to the full press of the release switch is stored in the image storage unit 132. In the case of capturing a moving image, the above-described images are continuously captured, and each image constitutes a moving image as a frame image (frame image). Movie capture starts when the release switch is fully pressed for the first time and ends when the release switch is fully pressed for the second time. Alternatively, the video is captured only while the full press continues. The sound collected from the microphone 17 can also be captured synchronously with the acquisition of the moving image.

画像記憶部132に格納されたY/C信号は、CPU112によって所定のフォーマット(例えば静止画ならばExif(Exchangeable Image File Format)、動画ならばMPEG4)に従って圧縮された後、外部記録媒体にファイルとして記録される。画像はExifファイルのデータ部分に記録される。CPU112は上記Exifファイルのヘッダ部分の所定のタグ(Imagedescriptionタグなど)に撮影日時情報などを記録する。記録された画像は、通信インターフェース76を介して接続されたパソコン200aやプリンタ200bやPDAなどの各種電子機器200に送信することもできる。また、カメラ10は、通信インターフェース76を介して他のカメラ10−Bとも接続している。カメラ10−Bは、カメラ10と同様の構成を有しているものとする。また、カメラ10とカメラ10−Bは同じようなシーンを撮影するようにユーザが適切な撮影画角を設定しているものとする。以下、カメラ10とカメラ10−Bのブロックとを区別するため、カメラ10−Bのブロックには副添え字「−B」を付する。また、サブ撮像部20が備えられている場合は、サブ撮像部20は撮像部102と同じようなシーンを撮影するようにユーザが適切な撮影画角を設定しているものとする。   The Y / C signal stored in the image storage unit 132 is compressed by the CPU 112 according to a predetermined format (for example, Exif (Exchangeable Image File Format) for a still image, MPEG4 for a moving image), and then stored as a file on an external recording medium. To be recorded. The image is recorded in the data part of the Exif file. The CPU 112 records shooting date / time information and the like in a predetermined tag (such as an image description tag) in the header portion of the Exif file. The recorded image can be transmitted to various electronic devices 200 such as a personal computer 200a, a printer 200b, and a PDA connected via the communication interface 76. The camera 10 is also connected to another camera 10 -B via the communication interface 76. The camera 10-B has the same configuration as the camera 10. In addition, it is assumed that the user has set an appropriate shooting angle of view so that the camera 10 and the camera 10-B capture a similar scene. Hereinafter, in order to distinguish between the camera 10 and the block of the camera 10-B, a subscript “-B” is attached to the block of the camera 10-B. When the sub imaging unit 20 is provided, it is assumed that the user sets an appropriate shooting angle of view so that the sub imaging unit 20 captures a scene similar to the imaging unit 102.

プリンタ200bは、カメラ10やパソコン200aから受信した静止画像を普通紙や印画紙などの紙媒体で構成される台紙に所定の配置でプリントする。所定の配置で配列された静止画像は、アドビシステムズ社の「PDF」のような電子的媒体としてディスプレイや記録メディアやインターネット経由で接続されたパソコンなどに出力することもできる。要するに、作成された画像プリントの出力先は、特定のものに限定されない。本願明細書では、所望の画像が所望の位置に配置されうる電子的媒体の作成フォームも台紙と呼ぶ。   The printer 200b prints a still image received from the camera 10 or the personal computer 200a on a mount made of a paper medium such as plain paper or photographic paper in a predetermined arrangement. Still images arranged in a predetermined arrangement can be output as electronic media such as “PDF” of Adobe Systems Inc. to a display, a recording medium, a personal computer connected via the Internet, and the like. In short, the output destination of the created image print is not limited to a specific one. In this specification, an electronic medium creation form on which a desired image can be arranged at a desired position is also called a mount.

モードダイヤルによって動画撮影モードが設定されたときには、レリーズスイッチの全押し操作に連動して動画記録動作がスタートし、もう一度レリーズスイッチを押下すると動画記録動作が停止する。レリーズスイッチを押下継続している期間、録画動作を行い、押下解除によって録画を停止するようにしてもよい。動画データは、例えばMPEG4形式によって画像記憶部132に記憶される。   When the moving image shooting mode is set by the mode dial, the moving image recording operation starts in conjunction with the full pressing operation of the release switch, and the moving image recording operation stops when the release switch is pressed again. The recording operation may be performed while the release switch is continuously pressed, and the recording may be stopped by releasing the press. The moving image data is stored in the image storage unit 132 in the MPEG4 format, for example.

モードダイヤルにより再生モードが選択されると、画像記憶部に記憶されている最終の画像ファイル(最後に記録されたファイル)の圧縮データが読み出される。この読み出された画像圧縮データは、CPU112によって非圧縮のYC信号に伸長され、ビデオエンコーダ134に加えられる。ビデオエンコーダ134は、入力するYC信号からNTSC方式のRGBカラー複合映像信号を作成し、これを表示部110に出力する。これにより、表示部110に画像が表示される。   When the playback mode is selected by the mode dial, the compressed data of the last image file (last recorded file) stored in the image storage unit is read out. The read image compressed data is decompressed into an uncompressed YC signal by the CPU 112 and added to the video encoder 134. The video encoder 134 creates an NTSC RGB color composite video signal from the input YC signal and outputs it to the display unit 110. Thereby, an image is displayed on the display unit 110.

表示部110は、カメラ10に内蔵されたLCD、ファインダー又は映像出力端子等に接続された外部の表示装置に相当する。なお、ビデオエンコーダ134は、OSD信号発生回路135を含み、OSD信号発生回路135はCPU112からの指令に応じてシャッター速度や絞り値、撮影可能枚数、撮影日時、警告指示等の文字及びアイコン等の記号を表示するための信号を発生させる。このOSD信号発生回路135から出力される信号は、必要に応じて画像信号に混合されて、LCD114に供給される。これにより、スルー画像や再生画像に文字やアイコン等が合成された合成画像が表示される。   The display unit 110 corresponds to an external display device connected to an LCD, a finder, a video output terminal, or the like built in the camera 10. The video encoder 134 includes an OSD signal generation circuit 135. The OSD signal generation circuit 135 displays characters such as shutter speed, aperture value, number of images that can be shot, shooting date and time, warning instructions, etc. in accordance with instructions from the CPU 112, icons, and the like. Generate a signal to display the symbol. The signal output from the OSD signal generation circuit 135 is mixed with an image signal as necessary and supplied to the LCD 114. As a result, a composite image in which characters, icons, and the like are combined with the through image and the playback image is displayed.

画像記憶部132は、撮影で得た画像データ(静止画、動画)を保持する手段であり、例えばスマートメディアと呼ばれるメモリカードが使用される。記録メディアの形態はこれに限定されず、PCカード、コンパクトフラッシュ(登録商標)、磁気ディスク、光ディスク、光磁気ディスク、メモリスティックなどでもよく、電子的、磁気的、もしくは光学的、又はこれらの組み合わせによる方式などに従って読み書き可能な媒体を用いることができる。異種・同種の記録メディアを問わず、複数の媒体を装着可能な構成にしてもよい。また、画像ファイルを保存する手段は、カメラ本体に着脱可能なリムーバブルメディアに限らず、カメラに内蔵された記録媒体(内蔵メモリ)であってもよい。   The image storage unit 132 is means for holding image data (still images, moving images) obtained by shooting, and for example, a memory card called smart media is used. The form of the recording medium is not limited to this, and it may be a PC card, a compact flash (registered trademark), a magnetic disk, an optical disk, a magneto-optical disk, a memory stick, etc., electronic, magnetic, optical, or a combination thereof A readable / writable medium can be used in accordance with the above-described method. A configuration in which a plurality of media can be mounted regardless of different types or the same type of recording media may be adopted. The means for storing the image file is not limited to a removable medium that can be attached to and detached from the camera body, but may be a recording medium (built-in memory) built in the camera.

CPU112は、カメラ10の各回路を統括制御する制御回路であり、レリーズスイッチ、十字キー、電源スイッチ、モードダイヤル、情報位置指定キーあるいは図示しないストロボボタン、ズームキー、メニュー/実行ボタンその他を含む操作部113から受信する信号に基づき、対応する回路の動作を制御するとともに、表示部110における表示制御、ストロボ発光制御、AF補助光の発光制御、オートフォーカス(AF)制御及び自動露出(AE)制御等を行う。   The CPU 112 is a control circuit that performs overall control of each circuit of the camera 10 and includes an operation unit including a release switch, a cross key, a power switch, a mode dial, an information position designation key, a strobe button (not shown), a zoom key, a menu / execution button, and the like. Based on the signal received from 113, the operation of the corresponding circuit is controlled, and display control in the display unit 110, strobe light emission control, AF auxiliary light emission control, autofocus (AF) control, automatic exposure (AE) control, etc. I do.

カメラ10の電源が電源スイッチでオンされる度に、カメラボディ内部に装着される電池からなる図示しない主要電源から、デジタルカメラ10の各回路に電源が供給される。   Each time the power supply of the camera 10 is turned on by the power switch, power is supplied to each circuit of the digital camera 10 from a main power supply (not shown) composed of a battery mounted inside the camera body.

通信インターフェース76は、パソコンンやプリンタなどの各種情報処理機器と接続可能であり、CPU112からのコマンドに従い、データの送受信を行う。   The communication interface 76 can be connected to various information processing devices such as a personal computer and a printer, and transmits and receives data in accordance with commands from the CPU 112.

動き検出回路21は、加速度センサ、ポテンショメータ、重力サンサ、傾斜センサ、姿勢センサ、電子コンパス等からなる。具体的には、動き検出回路21は、操作部113、特にレリーズスイッチへの押圧力を検知する圧力検出部、カメラ100の左右の動き方向及びその動作量を示す左右動き情報を出力する左右動き検出部、カメラ100の上下の動き方向及びその動作量を示す上下動き情報を出力する上下動き検出部、カメラ100の筐体の水平方向に対する傾き方向及びその傾き量を示す傾き動き情報を出力する傾き動き検出部を備える。動き情報は、左右動き情報、上下動き情報、および傾き動き情報ならびに各動きの検知が開始した時刻、各動きの検知が終了した時刻、各動きの検知が持続した時間を含む。   The motion detection circuit 21 includes an acceleration sensor, a potentiometer, a gravity sensor, a tilt sensor, a posture sensor, an electronic compass, and the like. Specifically, the motion detection circuit 21 outputs the left-right motion information indicating the left-right motion direction and the amount of motion of the camera 100, the pressure detection unit for detecting the pressing force to the operation unit 113, particularly the release switch. A detection unit, a vertical movement detection unit that outputs vertical movement information indicating the vertical movement direction and movement amount of the camera 100, and a tilt movement information indicating the inclination direction and the inclination amount of the camera 100 with respect to the horizontal direction are output. A tilt motion detector is provided. The motion information includes the left and right motion information, the vertical motion information, the tilt motion information, the time when the detection of each motion is started, the time when the detection of each motion is completed, and the time when the detection of each motion is continued.

サブ撮像部20は、カメラ10の筐体前面に設けられて被写体の撮影に用いられる撮像部102とは異なり、筐体前面に設けられて撮影者自身の撮影(以下、セルフ撮影と呼ぶ)を行なう。また、サブ撮像部20は、ユーザが表示部110の画面のどこを注視しているかを検出する装置であり、検出した情報はCPU112に入力される。被検眼の視線方向を検出するには、被検眼の前眼部に光線を投射し、角膜或いは水晶体による反射像を光電変換素子によって検出することで実現される。被検眼の視線方向を検出する装置は周知である。   Unlike the imaging unit 102 that is provided on the front surface of the housing of the camera 10 and is used for photographing a subject, the sub-imaging unit 20 is provided on the front surface of the housing and performs shooting by the photographer (hereinafter referred to as self-shooting). Do. The sub imaging unit 20 is a device that detects where on the screen of the display unit 110 the user is gazing at, and the detected information is input to the CPU 112. Detection of the line-of-sight direction of the eye to be examined is realized by projecting a light beam onto the anterior eye portion of the eye to be examined and detecting a reflection image by the cornea or the crystalline lens by a photoelectric conversion element. An apparatus for detecting the direction of the line of sight of an eye to be examined is well known.

測距部81は、例えば、撮像部102の撮影範囲にある被写体に対して発光部から光を発し、被写体に反射して戻ってきた光を受光し、発光部と受光部のなす角から被写体までの距離を算出する三角測距センサを採用できる。あるいはTOF(タイムオブフライト)原理を応用したセンサや、複眼カメラの距離画像(3D画像)を利用するなど、被写体の測距を行う手段であれば各種の公知技術を採用できる。   For example, the distance measuring unit 81 emits light from a light emitting unit to a subject within the shooting range of the imaging unit 102, receives light returned from the subject and returns the subject from an angle formed by the light emitting unit and the light receiving unit. A triangulation distance sensor that calculates the distance up to can be used. Alternatively, various known techniques can be adopted as long as the object is a means for measuring a distance such as a sensor applying the TOF (Time of Flight) principle or a distance image (3D image) of a compound eye camera.

表示部110にはタッチパネル114が積層されている。ユーザが指やペンなどで表示部110の対応部分を押下すると、その押下位置を示す情報がCPU112に出力される。   A touch panel 114 is stacked on the display unit 110. When the user presses a corresponding part of the display unit 110 with a finger or a pen, information indicating the pressed position is output to the CPU 112.

CPU112には、音声処理回路84を介してスピーカ85が接続されている。音声処理回路84は、CPU112から送られた報知音データ(シャッタ音、警告音など)に基づき、スピーカ85を駆動させることで、報知音や、動画とともに記録された音声を出力する。   A speaker 85 is connected to the CPU 112 via an audio processing circuit 84. The audio processing circuit 84 drives the speaker 85 based on the notification sound data (shutter sound, warning sound, etc.) sent from the CPU 112, thereby outputting the notification sound and the sound recorded together with the moving image.

マイク17から取得されたアナログ音声信号は、動画撮影モードの場合、音声処理回路84によって増幅後デジタルデータに変換されるとともに、所定の圧縮記録形式(MPEG4など)で圧縮されるなどのデータ処理がなされ、取得した画像とともに画像記憶部132に記憶される。静止画撮影モードであっても、本撮影指示前後の音声を記録することは可能である。また、画像記憶部132に記憶された音声の他、記憶部119に予め記憶された操作音、シャッタ音、AFの合焦音などの各種報知音データは、音声処理回路84によってデコードやアナログ音声信号変換や増幅などのデータ処理がなされた後に、スピーカ85に出力される。スピーカ85は、音声処理回路84から出力されたアナログ音声信号に従って音声を出力する。   In the video shooting mode, the analog audio signal acquired from the microphone 17 is converted into digital data after being amplified by the audio processing circuit 84 and is subjected to data processing such as being compressed in a predetermined compression recording format (such as MPEG4). The image is stored in the image storage unit 132 together with the acquired image. Even in the still image shooting mode, it is possible to record audio before and after the main shooting instruction. In addition to the sound stored in the image storage unit 132, various notification sound data such as operation sound, shutter sound, and AF in-focus sound stored in advance in the storage unit 119 are decoded and analog sound by the sound processing circuit 84. After data processing such as signal conversion and amplification is performed, the data is output to the speaker 85. The speaker 85 outputs sound according to the analog sound signal output from the sound processing circuit 84.

RTC(リアルタイムクロック)15は、現在日時情報を出力する。この現在時刻情報は、撮像部102による記録用画像の撮影日時情報として、画像とともに記録することができる。   An RTC (real time clock) 15 outputs current date and time information. This current time information can be recorded together with the image as shooting date / time information of the recording image by the imaging unit 102.

音声認識回路54は、マイク17から直接取得された音声、あるいは画像記憶部132に記憶された音声データのうちCPU112から指定された音声データが表す音声に対して音声認識を行い、認識結果をテキストデータとして出力する音声認識処理を行う。音声認識回路54には、音声データベース74が接続されており、音声データベース74には、音声認識処理時にパターンマッチングのために参照されるパターンデータが記憶されている。音声認識回路54は、音声データベース74に記憶されているパターンデータを参照して音声認識を行う。音声データベース74には、例えば不特定多数の人が出入りする駅などの公共施設で集音された雑踏の音声、道路沿いの歩道での車の通行の騒音といった、想定される様々な撮影時の状況を示す音声パターンが登録されている。   The voice recognition circuit 54 performs voice recognition on the voice directly acquired from the microphone 17 or the voice represented by the voice data designated by the CPU 112 out of the voice data stored in the image storage unit 132, and the recognition result is converted into text. Performs speech recognition processing that is output as data. A speech database 74 is connected to the speech recognition circuit 54, and the speech database 74 stores pattern data referred to for pattern matching during speech recognition processing. The voice recognition circuit 54 performs voice recognition with reference to the pattern data stored in the voice database 74. In the voice database 74, for example, at the time of various assumed shootings, such as crowded voices collected at public facilities such as a station where an unspecified number of people come and go, and noises of car traffic on the sidewalk along the road An audio pattern indicating the situation is registered.

GPS受信機120は、GPS衛星からの電波を受信して軌道からの距離を測定することにより、カメラ10の現在位置情報を得る。この現在位置情報は、撮像部102による記録用画像の撮影位置情報として、画像とともに(例えばメタ情報やヘッダ情報として)画像記憶部132に記憶することができる。   The GPS receiver 120 obtains current position information of the camera 10 by receiving radio waves from GPS satellites and measuring the distance from the orbit. This current position information can be stored in the image storage unit 132 together with an image (for example, as meta information or header information) as shooting position information of an image for recording by the imaging unit 102.

カメラ筐体裏面には、マイク17が設置されており、これらの各種装置は、表示部110の周辺に設けられている。また、カメラ筐体正面あるいはカメラ10の拡張機器として、サブ撮像部20を設けることができるが、設けなくてもよい。   A microphone 17 is installed on the rear surface of the camera casing, and these various devices are provided around the display unit 110. Moreover, although the sub imaging part 20 can be provided as a camera housing front surface or an expansion device of the camera 10, it is not necessary to provide it.

CPU112は、画像処理の基礎となるユーザ情報を取得する。例えば、ユーザ情報は、GPS受信機120からの位置情報、動き検出回路21の検出した動きを示す動き情報、RTC15からの撮影日時情報、操作部113やタッチパネル114の操作内容情報、CPU112からの構図情報、被写体情報、画質情報、音声認識回路54からの認識音声情報、あるいはそれらをメタ情報やヘッダ情報として記録した画像ファイルなどが挙げられる。   The CPU 112 acquires user information that is the basis of image processing. For example, the user information includes position information from the GPS receiver 120, motion information indicating the motion detected by the motion detection circuit 21, shooting date / time information from the RTC 15, operation content information on the operation unit 113 and the touch panel 114, and composition from the CPU 112. Information, subject information, image quality information, recognized voice information from the voice recognition circuit 54, or an image file in which these are recorded as meta information or header information.

画像解析部145は、画像記憶部132の画像を解析し、その結果に応じて、構図情報、被写体情報、画質情報を作成し、出力する。構図情報は、人物の有無、主要被写体(典型的には合焦被写体のことを指すが、顔検出のあった被写体でも可)の位置を含む。被写体情報は、顔領域の位置、被写体サイズ、人物名、被写体の動きの有無、その動き方向ならびにその動き速度、などを含む。なお、構図解析、被写体抽出、顔検出、画質解析については、各種の公知技術を用いればよい(例えば、本出願人による特開2007−97090号公報、特開2005−354606号公報)。これらの情報は、画像の付帯情報として記録してもよい。   The image analysis unit 145 analyzes the image in the image storage unit 132, and creates and outputs composition information, subject information, and image quality information according to the result. The composition information includes the presence / absence of a person and the position of a main subject (typically a focused subject, but may be a subject with face detection). The subject information includes the position of the face area, subject size, person name, presence / absence of subject motion, direction of motion, and speed of motion. Note that various known techniques may be used for composition analysis, subject extraction, face detection, and image quality analysis (for example, Japanese Patent Application Laid-Open Nos. 2007-97090 and 2005-354606 by the present applicant). Such information may be recorded as supplementary information of the image.

画質情報は、ボケ・ブレの有無や、目瞑りの有無などを示す画像情報を含む。ブレの検出については、従来の手ブレ検出と同様、動き検出回路21の検出した加速度ベクトルのサイズが所定の閾値を超えた場合に手ブレありと判断する。ボケの検出については、例えばエッジ検出に基づいて行うことができる(例えば、本出願人による特開2005−122721号公報)。目瞑りの有無の判定についても公知技術を用いることができる(例えば、本出願人による特開2007−49631号公報)。   The image quality information includes image information indicating the presence / absence of blurring / blurring and the presence / absence of eye-meditation. As for shake detection, as in the case of conventional camera shake detection, it is determined that there is camera shake when the size of the acceleration vector detected by the motion detection circuit 21 exceeds a predetermined threshold. The blur detection can be performed based on, for example, edge detection (for example, Japanese Patent Application Laid-Open No. 2005-122721 by the present applicant). A known technique can also be used for determining whether or not eyes are closed (for example, Japanese Patent Application Laid-Open No. 2007-49631 by the present applicant).

操作内容情報は、撮影モード設定からシャッターボタン半押しまでの間に入力された操作の内容を含む。操作内容情報は、操作部113またはタッチパネル114への操作入力があるごとに、CPU112によって記憶部119に記憶される。これらの情報は、画像の付帯情報として記録してもよい。   The operation content information includes the content of the operation input between the shooting mode setting and the half-press of the shutter button. The operation content information is stored in the storage unit 119 by the CPU 112 every time there is an operation input to the operation unit 113 or the touch panel 114. Such information may be recorded as supplementary information of the image.

失敗画像登録部141は、画像記憶部132の画像、通信I/F76から入力した画像、可搬性記憶媒体から読み出した画像など所望の画像のうち、失敗画像として登録すべき画像の選択を、操作部113を介して受け付ける。そして、操作部113から指定された画像に、失敗画像の分類を示す情報を対応づけて画像記憶部132に登録する。あるいは、画像記憶部132などから確保した所望の画像のうち、成功画像として登録すべき画像の選択を、操作部113を介して受け付ける。そして、操作部113から指定された画像に、成功画像の分類を示す情報を対応づけて画像記憶部132に登録する。あるいは、画像解析部145の取得した情報に基づいて、撮像部102やサブ撮像部20やカメラ10−Bの取得した画像の中から失敗画像と成功画像を分類し、その分類結果を示す情報を、画像記憶部132に記憶された各画像に対応づけて登録することもできる。   The unsuccessful image registration unit 141 operates to select an image to be registered as a unsuccessful image among desired images such as an image stored in the image storage unit 132, an image input from the communication I / F 76, and an image read from a portable storage medium. It accepts via the part 113. Then, information indicating the classification of the failed image is associated with the image designated from the operation unit 113 and registered in the image storage unit 132. Alternatively, selection of an image to be registered as a successful image among desired images secured from the image storage unit 132 or the like is received via the operation unit 113. Then, information indicating the classification of the successful image is associated with the image designated from the operation unit 113 and registered in the image storage unit 132. Alternatively, based on the information acquired by the image analysis unit 145, the failure image and the success image are classified from the images acquired by the imaging unit 102, the sub imaging unit 20, and the camera 10-B, and information indicating the classification result is displayed. The image storage unit 132 can also be registered in association with each image.

どのような画像を失敗画像あるいは成功画像として登録するかは、ユーザによる操作部113への指示入力に依存し、どのような画像が登録されてもよい。例えば、所望の画像の中で、人物被写体が横や後ろを向いたり、目を瞑った画像などを、ユーザが任意に操作部113を介して選択し、それを失敗画像とする。あるいは、ユーザが人物被写体が正面を向いた画像を操作部113を介して選択し、成功画像とする。   Which image is registered as a failed image or a successful image depends on an instruction input to the operation unit 113 by the user, and any image may be registered. For example, in a desired image, the user arbitrarily selects an image with a human subject facing sideways or rearward or with eyes closed, etc., via the operation unit 113, and designates it as a failed image. Alternatively, the user selects an image with a human subject facing the front side via the operation unit 113 and sets it as a successful image.

失敗画像や成功画像そのものを登録する代わりに、ユーザが失敗あるいは成功であると考える画像中の領域の指定を操作部113から受け付け、その部分を失敗画像や成功画像として登録してもよい。さらに、その部分を示す固有の特徴量が画像解析部145によって抽出可能であるならば、その特徴量を失敗画像や成功画像の代替物として登録してもよい。特徴量としては、露出している黒目の縦方向の長さ(単位は画素)、顔領域から検出される目の個数(2、1、または0)、人物被写体以外に動きのある被写体の位置情報がある。このような特徴量は、画像解析部145の画像解析によって作成してもよい。静止画撮影前後の動画がカメラ10−Bやサブ撮像部20によって記録されていれば、静止画撮影前後の動画と静止画との差分から、静止画の中で動いている被写体部分が特定でき、その部分を失敗画像にできる。その差分から動きベクトルを作成し、これを1次特徴量とすることもできる。   Instead of registering the failure image or the success image itself, designation of an area in the image that the user considers to be failure or success may be received from the operation unit 113, and the portion may be registered as the failure image or the success image. Further, if a unique feature amount indicating the portion can be extracted by the image analysis unit 145, the feature amount may be registered as a substitute for the failed image or the successful image. The feature amount includes the length of the exposed black eye in the vertical direction (unit: pixels), the number of eyes detected from the face area (2, 1, or 0), and the position of the moving subject other than the human subject. There is information. Such a feature amount may be created by image analysis of the image analysis unit 145. If moving images before and after still image recording are recorded by the camera 10-B and the sub imaging unit 20, the moving subject portion in the still image can be specified from the difference between the moving image before and after the still image shooting and the still image. , That part can be a failed image. It is also possible to create a motion vector from the difference and use it as a primary feature value.

また、画像取得時に認識された音の種類や騒音の有無も、失敗画像または成功画像の特徴量の1つとして登録できる。騒音が検出されたときに撮られた画像は、車や人の集団など不要な被写体が主要被写体の背後あるいは前を通過する可能性が高く、その騒音のレベル(例えば70デシベル)を失敗画像の特徴量として登録できる。あるいは、通常、集合写真の場合、皆静かになってから撮影を開始するであろうから、ユーザが操作部113を介して成功画像に指定した集合写真を撮った騒音のレベル(例えば50デシベル)を、特徴量として登録する。合わせて、画像解析部145が公知の顔検出やエッジ検出などにより検出した人物被写体の数を、特徴量として登録してもよいであろう。   The type of sound recognized at the time of image acquisition and the presence or absence of noise can also be registered as one of the feature amounts of the failed image or the successful image. An image taken when noise is detected is likely to cause an unnecessary subject such as a car or a group of people to pass behind or in front of the main subject, and the noise level (for example, 70 decibels) is set as the failure image. It can be registered as a feature value. Or, in the case of a group photo, since shooting will usually start after all people are quiet, the noise level (for example, 50 dB) at which the user took a group photo designated as a successful image via the operation unit 113 Are registered as feature quantities. In addition, the number of human subjects detected by the image analysis unit 145 by known face detection or edge detection may be registered as a feature amount.

あるいは、撮影時における動き検出回路21のカメラの瞬間的な振れ量(加速度)も、特徴量として登録できる。例えば、手振れが生じており、失敗画像として選択された画像の撮影時の振れ量は、失敗画像の特徴量として登録できる。あるいは、晴天下の逆光で撮影された失敗画像のEV値や色温度は、失敗画像の特徴量として登録できる。また、失敗画像として選択されたピンボケ画像のエッジ特徴量(エッジの鮮鋭度)は、失敗画像の特徴量として登録できる。このような特徴量は、指定された目瞑り領域の座標情報と組み合わせた失敗画像とその特徴量として登録できる。   Alternatively, the instantaneous shake amount (acceleration) of the camera of the motion detection circuit 21 at the time of shooting can also be registered as a feature amount. For example, camera shake has occurred, and the shake amount at the time of shooting an image selected as a failed image can be registered as a feature amount of the failed image. Alternatively, the EV value and color temperature of a failed image taken with backlighting under a clear sky can be registered as the feature amount of the failed image. Further, the edge feature amount (edge sharpness) of the out-of-focus image selected as the failure image can be registered as the feature amount of the failure image. Such a feature amount can be registered as a failure image combined with coordinate information of a designated eye-meditation region and its feature amount.

あるいは、主要被写体が小さすぎて失敗画像として選択された画像の主要被写体の位置、大きさ、あるいは測距部81の測距したその主要被写体あるいはそれ以外の被写体までの距離も、失敗画像の特徴量として登録できる。   Alternatively, the position and size of the main subject in the image selected as the failed image because the main subject is too small, or the distance to the main subject or the other subject measured by the distance measuring unit 81 is also a feature of the failed image. Can be registered as a quantity.

あるいは、露出不足で画像が黒くつぶれてしまった(露出アンダー)画像が失敗画像として選択された場合や、露出過多で画像に白飛びが生じた画像が失敗画像として選択された場合、EV値を失敗画像の特徴量として登録できる。   Alternatively, if an image that has been blacked out due to underexposure (underexposure) is selected as a failed image, or an image that is overexposed and overexposed is selected as a failed image, the EV value is set. It can be registered as the feature amount of the failed image.

あるいは、画像の輝度レンジのハイライト部及びシャドー部が所定のラチチュード内に収まらず、ハイライト部の飛びやシャドー部のつぶれが発生した失敗画像の輝度情報を、失敗画像の特徴量として登録できる。   Alternatively, it is possible to register the luminance information of the failed image in which the highlight portion and the shadow portion of the luminance range of the image do not fall within a predetermined latitude and the highlight portion skips or the shadow portion is collapsed as the feature amount of the failed image. .

つまり、失敗画像または成功画像の特徴量とは、画像データの値に関連する情報ならびにその関連情報から派生する指標や数値(人物被写体の有無、人物被写体のサイズ、人物被写体の目瞑りの有無、被写体の目の数ならびにその数に応じた被写体の顔の向き、輝度情報、顔領域に含まれる各画素の輝度値についてのヒストグラム、動く被写体の有無など。以下、1次特徴量と呼ぶ)だけでなく、画像データの値そのものからは派生しない情報であるが、その画像データの撮影時の状況に関連する各種の指標や数値(EV値、焦点距離、周囲の騒音レベル、被写体までの距離など。以下、2次特徴量と呼ぶ)も包含し、それらのうちどれを失敗画像または成功画像と対応づけて登録するかは、ユーザの自由である。以下、登録された失敗画像、成功画像ならびにそれらに付随する各種の特徴量を、失敗/成功条件情報という。   In other words, the feature amount of the failed image or the successful image is information related to the value of the image data and an index or numerical value derived from the related information (whether there is a human subject, the size of the human subject, whether the human subject is meditating, The number of the subject's eyes and the orientation of the subject's face, luminance information, histogram of the luminance value of each pixel included in the face area, presence / absence of a moving subject, etc. (hereinafter referred to as a primary feature) In addition, the information is not derived from the value of the image data itself, but various indexes and numerical values (EV value, focal length, ambient noise level, distance to the subject, etc.) relating to the situation at the time of shooting the image data. (Hereinafter referred to as “secondary feature amount”), and it is up to the user to register which of them is associated with the failure image or the success image. Hereinafter, the registered failure image, success image, and various feature quantities associated with them are referred to as failure / success condition information.

失敗画像検出部142は、失敗画像登録部141が画像記憶部132に登録した失敗/成功条件情報に基づいて、任意の画像(記録済みの画像だけでなく、撮像部102から継続的に出力されるスルー画も含む)の失敗部分の有無とその場所を特定し、CPU112に通知する。CPU112は、その失敗部分の通知に基づいて、警告やメッセージを表示や音声出力したり、失敗部分を成功画像の成功部分で置換したりする。この処理については後述する。   The failure image detection unit 142 continuously outputs an arbitrary image (not only a recorded image but also the imaging unit 102) based on the failure / success condition information registered in the image storage unit 132 by the failure image registration unit 141. The presence or absence of the failure portion (including the through image) and the location thereof are specified, and the CPU 112 is notified. Based on the notification of the failed part, the CPU 112 displays a warning or a message or outputs a voice, or replaces the failed part with a successful part of the success image. This process will be described later.

なお、デジタルカメラ10とは、要するに被写体像を画像データとして取得可能な機器であれば何でもよく、カメラ付き携帯電話、カメラ付きパソコン、デジタルビデオカメラ、デジタルスチルカメラなども含みうる。   The digital camera 10 may be any device that can acquire a subject image as image data, and may include a mobile phone with a camera, a personal computer with a camera, a digital video camera, a digital still camera, and the like.

記憶部132には、画像データに合成される文字情報やテンプレートデータが格納されており、画像処理部144は、CPU112の指示あるいは操作部113からの選択操作に応じて所望の画像に所望のデータを合成する。   The storage unit 132 stores character information and template data to be combined with image data, and the image processing unit 144 adds desired data to a desired image in accordance with an instruction from the CPU 112 or a selection operation from the operation unit 113. Is synthesized.

図2は撮像支援処理の概略を示すフローチャートである。この処理は撮影モードの設定に応じて開始する。あるいは、撮影準備動作の指示(シャッターボタンの半押し)が操作部113に入力されたことに応じて開始してもよい。この処理をCPU112に実行させるプログラムは記憶部119に記憶されている。なお、この「CPU112」とは、カメラ10そのものに内蔵されているものでなく、別の電子機器、例えばパソコン200aの内蔵するものも含みうる。つまり、本処理の実行主体は、パソコン200aのCPUであり、その制御対象がパソコン200aとは別体の撮像装置でも可能である。   FIG. 2 is a flowchart showing an outline of the imaging support process. This process starts according to the setting of the shooting mode. Alternatively, it may be started in response to an instruction for photographing preparation operation (half-pressing the shutter button) being input to the operation unit 113. A program that causes the CPU 112 to execute this processing is stored in the storage unit 119. The “CPU 112” is not built in the camera 10 itself, but may include another electronic device, for example, a built-in computer 200a. That is, the execution subject of this process is the CPU of the personal computer 200a, and the control target can be an imaging device separate from the personal computer 200a.

また、本明細書において「一致する」とは、実質的に一致すること、すなわち、完全に一致する場合の他、完全に一致しなくてもその誤差が所定の許容範囲に収まる場合も含むものとする。   Further, in this specification, “matching” includes substantially matching, that is, not only completely matching but also including the case where the error falls within a predetermined allowable range even if not matching completely. .

S1では、スルー画の取得を開始するとともに、マイク17による集音と音声認識回路54による集音された音声の内容や大きさの解析、画像解析部145による画像の輝度情報や画像内の動きのある物体の検出、目瞑り領域の検出、露出した黒目の直径の検出、目の個数の検出、測距部81による被写体までの距離の測定、動き検出回路21によるカメラ10の動き検出を開始するよう各ブロックを制御する。これらの制御によって各ブロックから得られた情報を、撮影時状況情報と総称する。   In S <b> 1, acquisition of a through image is started, analysis of the content and size of sound collected by the microphone 17 and sound collected by the speech recognition circuit 54, luminance information of the image and motion in the image by the image analysis unit 145 are performed. Detection of a certain object, detection of an eye-meditation area, detection of the diameter of an exposed black eye, detection of the number of eyes, measurement of a distance to a subject by a distance measuring unit 81, and detection of motion of the camera 10 by a motion detection circuit 21 Control each block to Information obtained from each block by these controls is generically referred to as shooting state information.

S2では、失敗/成功条件情報に含まれる失敗画像に対応づけられた特徴量と撮影時状況情報とを照合し、撮影時状況情報の中に失敗画像の特徴量と一致する情報が含まれるか否かを判断する。撮影時状況情報の中に失敗画像の特徴量と一致する情報が含まれる場合は、S3に進み、それ以外の場合はS4に進む。   In S2, the feature amount associated with the failed image included in the failure / success condition information is compared with the shooting situation information, and whether the shooting situation information includes information that matches the feature amount of the failed image. Judge whether or not. If the shooting situation information includes information that matches the feature amount of the failed image, the process proceeds to S3. Otherwise, the process proceeds to S4.

もしくは、失敗/成功条件情報に含まれる成功画像に対応づけられた特徴量と撮影時状況情報とを照合し、撮影時状況情報の中に成功画像あるいは成功画像の特徴量と一致する情報が含まれないか否かを判断する。撮影時状況情報の中に成功画像の特徴量と一致する情報が含まれない場合はS3に進み、それ以外の場合はS4に進む。   Alternatively, the feature amount associated with the success image included in the failure / success condition information is compared with the shooting state information, and the shooting state information includes information that matches the feature amount of the success image or the success image. Judge whether or not. If the shooting situation information does not include information that matches the feature amount of the successful image, the process proceeds to S3. Otherwise, the process proceeds to S4.

なお、S2は失敗画像検出部142が行ってもよい。   Note that S2 may be performed by the failed image detection unit 142.

S3では、失敗画像として登録された画像部分と合致するスルー画上の部分を特定する。これは、例えば、失敗画像のサイズと同じ領域がスルー画の全体を走査するよう、当該領域を任意の位置に設定しつつ、設定された領域に含まれるスルー画の部分領域と失敗画像との差分画像を作成し、差分画像が0(色データなし)となれば、登録された失敗画像の部分がスルー画にあると判断する。   In S3, the part on the through image that matches the image part registered as the failed image is specified. This is because, for example, the partial area of the through image included in the set area and the failed image are set in an arbitrary position so that the same area as the size of the failed image scans the entire through image. If a difference image is created and the difference image becomes 0 (no color data), it is determined that the registered part of the failed image is in the through image.

そして、特定された、スルー画内の失敗画像部分に対する枠囲みや着色や色反転などを示す映像、失敗部分が存在する旨の警告メッセージ、設定された画角での撮影を行うと失敗画像を得る可能性がある旨の警告を、アイコンやメッセージその他の映像によって表示部110に表示したり、あるいはチャイム音や警告メッセージその他の音声によって音声処理回路84およびスピーカ85から再生する。その他、S3の判断結果を示す映像の生成をOSD回路135に指示したり、あるいは、そのような警告メッセージの再生を音声処理回路84に指示してもよい。あるいは、そのような失敗部分の検出にもかかわらずシャッタボタンが全押しされて撮影指示が操作部113から入力された場合、CPU112はその撮影指示を無効化したり無視したりすることで撮影をロックし、撮影を行わせず、また撮影の指示に従わなかった旨のメッセージを再生することもできる。図示は省略するが撮影をロックした場合は、S5に進まず、S1に戻ってもよい。   Then, the image indicating the frame failure, coloring, color reversal, etc. for the failed image part in the specified through image, the warning message that there is a failure part, and shooting at the set angle of view A warning that there is a possibility of being obtained is displayed on the display unit 110 by an icon, a message, or other images, or is reproduced from the sound processing circuit 84 and the speaker 85 by a chime sound, a warning message, or other sounds. In addition, the OSD circuit 135 may be instructed to generate a video indicating the determination result of S3, or the audio processing circuit 84 may be instructed to reproduce such a warning message. Alternatively, when the shutter button is fully pressed and a shooting instruction is input from the operation unit 113 despite the detection of such a failed part, the CPU 112 locks the shooting by invalidating or ignoring the shooting instruction. However, it is also possible to reproduce a message indicating that shooting was not performed and that the shooting instruction was not followed. Although illustration is omitted, when shooting is locked, the process may not return to S5 but return to S1.

スルー画内に失敗画像に相当する部分がない場合でも、スルー画取得時の特徴量が失敗画像の特徴量と一致すると判断された場合、例えば、スルー画取得時に集音した周囲の音声の大きさが70ホンを超えたり、CPU112が算出したスルー画取得時のEV値が、逆光、白飛び、黒つぶれの失敗画像のEV値と一致したり、動き検出回路21が検出したスルー画取得時のカメラ10に加わった加速度が手振れ失敗画像に対応する加速度を超えたり、画像解析部145がスルー画から動きのある物体、目瞑りをした人物被写体、正面を向いていない顔(両目が検出されない顔)を検出したりした場合、そのような警告を表示したり拡声したりする。   Even if there is no portion corresponding to the failed image in the through image, if it is determined that the feature amount at the time of acquiring the through image matches the feature amount of the failed image, for example, the surrounding sound collected at the time of acquiring the through image The EV value at the time of acquisition of the through image calculated by the CPU 112 matches the EV value of the failed image of backlight, overexposure, or underexposure, or when the through image acquired by the motion detection circuit 21 is acquired. The acceleration applied to the camera 10 exceeds the acceleration corresponding to the camera shake failure image, or the image analysis unit 145 has a moving object from the through image, the human subject who has meditated eyes, the face not facing the front (both eyes are not detected) If a face is detected, such a warning is displayed or aloud.

合わせて、失敗の種類を通知してもよい。例えば、目瞑りの特徴量と一致すれば「目瞑りがあります」といったメッセージの表示や拡声、騒音が大きければ「現在撮影が妨げられるような騒音が観測されています」といったメッセージの表示や拡声を出力する。あるいは、露出アンダーの特徴量が検出されれば、その旨の警告を出力する。   In addition, the type of failure may be notified. For example, if it matches the feature value of eye meditation, a message such as “There is eye meditation” will be displayed and loud, and if the noise is loud, a message such as “Noise that is currently disturbing shooting has been observed” will be displayed and loud. Output. Alternatively, if an underexposed feature is detected, a warning to that effect is output.

スルー画は定期的に取得される画像であるため、スルー画取得時の特徴量も定期的に取得する。その周期はスルー画のコマ画像の取得周期と同じでなくてもよい。   Since the through image is an image that is periodically acquired, the feature amount at the time of acquiring the through image is also periodically acquired. The period may not be the same as the acquisition period of the through image.

さらに、登録された失敗画像の部分がスルー画にあると判断されたか、あるいはスルー画取得時の特徴量が失敗画像の特徴量と一致すると判断された場合、カメラ10−B(あるいはサブ撮像部20。以下同様)に対し、補完用画像の取得の開始を指示する。カメラ10−Bは、この指示を通信I/F76を介して受信すると、以後、撮像部102−Bによる定期的な画像の取得を行い、取得された画像を補完用画像として順次画像記憶部132−Bに格納する。これは、動画のコマ画像の取得でもよいし、静止画の連写でもよい。カメラ10−Bでなくカメラ10自身の撮像部102による静止画の連写や動画取得により補完用画像の取得を行ってもよい。さらに、カメラ10とカメラ10−Bの両方が補完用画像の取得を行ってもよい。さらに、通信インターフェース76に接続された所望のパソコン200aに補完用画像の出力を要求し、パソコン200aがその要求に応じて補完用画像をカメラ10に出力してもよい。このように、失敗画像の撮影の可能性が高まると、後の失敗画像の修正用の補完用画像を確保する。   Further, if it is determined that the registered part of the failed image is in the through image, or if it is determined that the feature amount at the time of acquiring the through image matches the feature amount of the failed image, the camera 10-B (or the sub imaging unit) 20. The same applies to the following, instructing the start of acquisition of the complementary image. Upon receiving this instruction via the communication I / F 76, the camera 10-B subsequently acquires a periodic image by the imaging unit 102-B, and sequentially uses the acquired image as a complementary image to the image storage unit 132. Store in -B. This may be acquisition of a frame image of a moving image or continuous shooting of still images. You may acquire the image for a complement by the continuous shooting of the still image by the imaging part 102 of the camera 10 itself instead of the camera 10-B, and moving image acquisition. Furthermore, both the camera 10 and the camera 10-B may acquire a complementary image. Furthermore, the desired personal computer 200a connected to the communication interface 76 may be requested to output a complementary image, and the personal computer 200a may output the complementary image to the camera 10 in response to the request. As described above, when the possibility of shooting the failed image increases, a complementary image for correcting the later failed image is secured.

ただし、この補完用画像が際限なく記憶されていくことを防ぐため、補完用画像が所定の枚数あるいは所定の時間的長さに収まるよう、古い画像(コマ画像)から廃棄していくとよい。例えば、廃棄を開始する枚数閾値が「5」として記憶部119に設定されていれば、6枚以上の補完用画像が得られたとき、その中で最も古い画像から順に削除していき、枚数閾値にまでに減ったら削除を止める。あるいは、廃棄を開始する時間閾値が「10秒」として記憶部119に設定されていれば、現在時刻から10秒遡った動画コマ画像よりも古い動画コマ画像を削除する。   However, in order to prevent this complementary image from being stored indefinitely, it is preferable to discard old images (frame images) so that the number of complementary images is within a predetermined number or a predetermined time length. For example, if the threshold value for starting discard is set in the storage unit 119 as “5”, when six or more complementary images are obtained, the oldest image is deleted in order, and the number of images is deleted. Deletion is stopped when the threshold is reached. Alternatively, if the time threshold for starting discarding is set in the storage unit 119 as “10 seconds”, a moving image frame image older than the moving image frame image that is 10 seconds back from the current time is deleted.

S4では、撮影に適した条件が整った旨の通知メッセージの映像信号の合成をOSD回路135に指示する。あるいは当該通知メッセージの再生を音声処理回路84に指示する。合わせて、補完用画像の取得を停止する指示をカメラ10−Bに出力してもよい。   In S4, the OSD circuit 135 is instructed to synthesize a video signal of a notification message indicating that a condition suitable for shooting is satisfied. Alternatively, the audio processing circuit 84 is instructed to reproduce the notification message. In addition, an instruction to stop acquisition of the complementary image may be output to the camera 10-B.

S5では、操作部113への撮影開始の指示入力があったか否か(シャッタボタンの全押しがあったか否か)を判断する。Yesの場合はS6に進み、Noの場合はS1に戻る。   In S5, it is determined whether or not an instruction to start photographing has been input to the operation unit 113 (whether or not the shutter button has been fully pressed). In the case of Yes, it progresses to S6, and in No, it returns to S1.

S6では、撮影開始の指示入力に応じた撮影動作が行われる。この結果、撮像部102による記録用画像取得動作が行われ、画像が画像記憶部132に格納される。また撮影開始の指示入力時の特徴量を画像に対応づけて画像記憶部132に格納する。   In S6, a shooting operation is performed in response to a shooting start instruction input. As a result, the recording image acquisition operation by the imaging unit 102 is performed, and the image is stored in the image storage unit 132. Further, the feature amount at the time of inputting an instruction to start shooting is stored in the image storage unit 132 in association with the image.

また、画像の格納後、一定時間(例えば5秒間経過後)、カメラ10−Bに対し、補完用画像の取得の終了を指示する。カメラ10−Bは、この指示を通信I/F76を介して受信すると、画像の取得を停止する。   Further, after storing the image, the camera 10-B is instructed to end acquisition of the complementary image for a certain time (for example, after 5 seconds). When the camera 10 -B receives this instruction via the communication I / F 76, the camera 10 -B stops acquiring images.

なお、S2において、一旦失敗画像が検出されたとしても、その後のスルー画について、CPU112が、登録された成功画像の画像部分と合致するスルー画上の部分の有無、および、成功画像の特徴量とスルー画取得時の特徴量との合致の有無を判断し、スルー画と成功画像部分とが一致しあるいはスルー画取得時の特徴量と成功画像の特徴量が存在する場合、撮影条件が整った旨の通知メッセージを出力してもよい。また、撮影がロックされている場合は、それを解除し、本撮影指示を受け入れるようにする。こうすると成功画像の記録の可能性がさらに増す。また、撮影ロックが解除されている間に本撮影指示があり、撮像と画像の格納が行われた場合は、その画像の取得時と同じタイミングで取得された補完用画像は破棄してもよい。成功画像が確保された以上、それと同じ補完画像は必要ないからである。   Note that even if a failed image is detected in S <b> 2, for subsequent through images, the CPU 112 determines whether there is a portion on the through image that matches the registered image portion of the successful image, and the feature amount of the successful image. If there is a match between the through image and the success image part, or if there is a feature amount and a success image feature amount when the through image is acquired, the shooting conditions are in place. A notification message to that effect may be output. If the shooting is locked, it is canceled and the main shooting instruction is accepted. This further increases the possibility of successful image recording. In addition, if there is a main shooting instruction while the shooting lock is released, and imaging and image storage are performed, the complementary image acquired at the same timing as when the image is acquired may be discarded. . This is because the same complementary image is not necessary as long as the success image is secured.

なお、登録された成功画像の画像部分と合致するスルー画上の部分の有無を示す映像も、同様にしてOSD回路135に指示してもよい。   Note that a video indicating the presence or absence of a portion on the through image that matches the image portion of the registered successful image may be similarly indicated to the OSD circuit 135.

このように、予め登録した失敗画像とその特徴量が、スルー画の取得時に得られた場合、警告を出力することで、ユーザが失敗画像を撮る可能性を低くすることができる。また、予め登録した成功画像とその特徴量が、スルー画の取得時に得られた場合、撮影条件が整った旨の通知を出力することで、ユーザが成功画像を撮る可能性をさらに高めることができる。   As described above, when the failure image registered in advance and the feature amount thereof are obtained at the time of acquiring the through image, the possibility of the user taking the failure image can be reduced by outputting a warning. In addition, when a pre-registered success image and its feature amount are obtained when a through image is acquired, a notification that the shooting conditions are ready can be output to further increase the possibility that the user will take a success image. it can.

<第2実施形態>
図3は第2実施形態に係る画像補完処理のフローチャートである。この処理をCPU112に実行させるプログラムは記憶部119に記憶されている。ただし、このプログラムは、カメラ10以外の情報処理装置、例えばパソコン200aでも可能である。このパソコンは、CPU12、通信I/F76、記憶部119、画像記憶部132、操作部113、失敗画像登録部141、画像解析部145、表示部110、ビデオエンコーダ134、OSD回路135と同等の構成を備えているものとする。
<Second Embodiment>
FIG. 3 is a flowchart of image complement processing according to the second embodiment. A program that causes the CPU 112 to execute this processing is stored in the storage unit 119. However, this program can also be executed by an information processing apparatus other than the camera 10, for example, the personal computer 200a. This personal computer has the same configuration as the CPU 12, the communication I / F 76, the storage unit 119, the image storage unit 132, the operation unit 113, the failed image registration unit 141, the image analysis unit 145, the display unit 110, the video encoder 134, and the OSD circuit 135. It shall be equipped with.

S11では、画像記憶部132から、撮影済み画像(静止画でも動画のコマ画像でもよい)、登録済みの失敗画像を入力する。これらの画像が複数ある場合は、それぞれを入力する。なお、本処理をパソコン200aで行う場合は、通信I/F76経由あるいは可搬性記憶媒体経由でカメラ10から撮影済み画像を入力するとともに、通信I/F76経由あるいは可搬性記憶媒体経由でカメラ10−B(またはカメラ10)から補完用画像を入力する。   In S <b> 11, a captured image (either a still image or a moving image frame image) or a registered failed image is input from the image storage unit 132. If there are a plurality of these images, enter each one. When this processing is performed by the personal computer 200a, the photographed image is input from the camera 10 via the communication I / F 76 or the portable storage medium, and the camera 10- is connected via the communication I / F 76 or the portable storage medium. A complementary image is input from B (or camera 10).

S12では、S2と同様の処理をスルー画でなく撮影済み画像について行う。撮影済み画像の中に失敗画像が一致する領域があるか、あるいは撮影済み画像に対応する特徴量と失敗画像の特徴量とが一致する場合、S13に進み、それ以外の場合は本処理を終了する。この処理については後で詳述する。   In S12, the same processing as in S2 is performed on the captured image instead of the through image. If there is a region in the photographed image where the failed image matches, or if the feature amount corresponding to the photographed image matches the feature amount of the failed image, the process proceeds to S13. Otherwise, the process ends. To do. This process will be described in detail later.

S13では、失敗画像と一致する撮影済み画像内の領域(失敗部分)に対する枠囲みや着色や色反転などを示す映像、失敗部分が存在する旨の警告メッセージ、その他S12の判断結果を示す映像の生成をOSD回路135に指示する。あるいは、警告メッセージの表示とともに、所定の警告音の再生を音声処理回路84に指示してもよい。なお、S3のメッセージの内容は、これから撮影を行う撮影者に対して失敗画像が撮影される可能性を示唆する警告であるが、本ステップS13のメッセージは、既に撮影を行った画像に失敗部分が存在する可能性を示唆する警告である。   In S13, an image showing frame surrounding, coloring, color reversal, and the like for a region (failed portion) in the captured image that matches the failed image, a warning message that there is a failed portion, and other images showing the determination result in S12. The generation is instructed to the OSD circuit 135. Alternatively, the audio processing circuit 84 may be instructed to reproduce a predetermined warning sound together with the display of the warning message. Note that the content of the message in S3 is a warning that suggests that a photographer who is going to take a photograph may take a failed image, but the message in this step S13 is a failed part of the image that has already been taken. This is a warning that suggests that there may be.

S14では、失敗部分のうち、修正したい所望の箇所を操作部113を介して選択させる。選択があったことに応じてS15に進む。   In S <b> 14, a desired portion to be corrected among the failed portions is selected via the operation unit 113. The process proceeds to S15 according to the selection.

S15では、選択された修正箇所を、カメラ10−Bの記憶した補完用画像の対応部分のうち成功画像の特徴量を有するもので置換する。そして置換後の修正画像を表示部110に表示させる。   In S15, the selected correction portion is replaced with the corresponding portion of the complementary image stored in the camera 10-B that has the feature amount of the successful image. Then, the corrected image after replacement is displayed on the display unit 110.

図4は、撮影済み画像もしくはその特徴量が失敗画像もしくはその特徴量と一致するか否かを判断し、一致した場合はその旨を通知する処理(S12およびS13)の詳細を示すフローチャートである。以下のフローチャートは、第1実施形態で挙げた1次特徴量あるいは2次特徴量のうちの一部についての判定であるが、その他の特徴量についても同様な判定が可能である。   FIG. 4 is a flowchart showing the details of the processing (S12 and S13) for determining whether or not the photographed image or its feature amount matches the failed image or its feature amount, and notifying if it matches. . The following flowchart is a determination for a part of the primary feature quantity or the secondary feature quantity described in the first embodiment, but the same determination can be made for other feature quantities.

S21では、失敗の可能性がある撮影済み画像を画像記憶部132から抽出する。これは例えば、撮影済み画像もしくはその特徴量が成功画像もしくはその特徴量と一致するか否かを判断し、成功画像もしくはその特徴量と全く一致しない撮影済み画像を、失敗の可能性がある撮影済み画像として抽出する。なお、抽出された失敗の可能性がある撮影済み画像を表示部110に一覧表示させ、その中からS22以降の処理対象とする画像を操作部113から選択させて、それを改めて取得された撮影済み画像とし、その他は失敗の可能性がある撮影済み画像から排除してもよい。   In S <b> 21, a captured image that may fail may be extracted from the image storage unit 132. This is because, for example, it is determined whether the captured image or its feature value matches the success image or its feature value, and the captured image that does not match the success image or its feature value at all has a possibility of failure. Extract as a completed image. The extracted captured images with the possibility of failure are displayed in a list on the display unit 110, and an image to be processed from S22 onward is selected from the operation unit 113, and the acquired image is acquired again. Other images may be excluded from captured images that may fail.

S22では、S21で取得された撮影済み画像および失敗画像に対応する1次特徴量同士を比較し、両者が一致するか否かを判断する。Yesの場合はS23、Noの場合はS24に進む。   In S22, the primary feature amounts corresponding to the captured image and the failed image acquired in S21 are compared, and it is determined whether or not they match. If yes, go to S23, if no, go to S24.

S23では、失敗画像の1次特徴量を有する撮影済み画像の領域を特定し、その部分を示す失敗部分指示映像を生成するようOSD回路135に指令する。   In S23, the area of the captured image having the primary feature amount of the failed image is specified, and the OSD circuit 135 is instructed to generate a failed part instruction video indicating the portion.

S24では、合焦被写体の距離よりも近い距離に被写体が存在するか否かを判断する。これは、焦点距離を合焦被写体までの距離に換算した上、合焦被写体までの距離と、測距部81の測距した被写体(合焦被写体とそれ以外の被写体を含む)までの距離とを比較し、合焦被写体までの距離よりも近い距離にある被写体(手前側被写体)があるか否かを判断する。Yesの場合はS25、Noの場合はS26に進む。なお、この判断を行う前に、測距部81は、顔検出などで検出された人物や、パターンマッチングなどで検出された人物以外の物体(車など)の存在するエリアのみについて、測距演算を繰り返し、各エリアに対応する距離を画像記憶部132に記憶し、各被写体の距離データを保存しておく。   In S24, it is determined whether or not the subject exists at a distance closer than the distance of the focused subject. This is because the focal length is converted into the distance to the in-focus subject, the distance to the in-focus subject, and the distance to the subject measured by the distance measuring unit 81 (including the in-focus subject and other subjects) Are compared to determine whether or not there is a subject (front side subject) that is closer than the distance to the focused subject. If Yes, the process proceeds to S25, and if No, the process proceeds to S26. Before making this determination, the distance measuring unit 81 performs distance calculation only for an area in which a person detected by face detection or an object (such as a car) other than a person detected by pattern matching exists. The distance corresponding to each area is stored in the image storage unit 132, and the distance data of each subject is stored.

S25では、撮影済み画像における手前側被写体の存在部分、すなわち当該手前側被写体の存在エリアを特定し、その部分を示す失敗部分指示映像を生成するようOSD回路135に指令する。   In S25, the presence portion of the near-side subject in the captured image, that is, the presence area of the near-side subject is specified, and the OSD circuit 135 is instructed to generate a failed portion instruction video indicating the portion.

S26では、撮影済み画像における合焦被写体のサイズと、失敗画像の特徴量に含まれる被写体サイズとを比較し、前者が後者以下であるか否かを判断する。Yesの場合はS27に進む。Noの場合は本処理を終える。   In S26, the size of the focused subject in the captured image is compared with the subject size included in the feature amount of the failed image, and it is determined whether the former is equal to or less than the latter. In the case of Yes, it progresses to S27. In the case of No, this process is finished.

S27では、合焦被写体の存在部分を示す失敗部分指示映像を生成するようOSD回路135に指令する。   In S27, the OSD circuit 135 is instructed to generate a failed part instruction video indicating the presence part of the focused subject.

図5は、失敗画像部分Bおよび成功画像部分Gの一例を示す。ここでは、失敗画像部分Bは、被写体の顔領域内の瞑った目およびその近傍領域であり、成功画像部分Gは目を完全に開いた状態の被写体の顔領域内の目およびその近傍領域である。これらは1次特徴量として画像記憶部132に記憶することができる。   FIG. 5 shows an example of the failed image portion B and the successful image portion G. Here, the failed image portion B is a meditated eye in the subject's face region and its vicinity region, and the successful image portion G is the eye in the subject's face region with its eyes fully open and its vicinity region. is there. These can be stored in the image storage unit 132 as primary feature amounts.

図6は、撮像部102やサブ撮像部20などから取得された画像(スルー画または撮影済み画像)の一つ目の例を示す。画像中の被写体SB1およびSB2は、目を瞑っており、図5の失敗画像部分Bと一致する。また、被写体SB3は、目を完全に開いており、成功画像部分Gと一致する。   FIG. 6 illustrates a first example of an image (through image or captured image) acquired from the imaging unit 102, the sub imaging unit 20, or the like. The subjects SB1 and SB2 in the image have their eyes closed and coincide with the failed image portion B in FIG. In addition, the subject SB3 has completely opened eyes and coincides with the successful image portion G.

よって、図6の画像がスルー画であり、この画像について図2の撮影支援処理を行うと、被写体SB1およびSB2の失敗画像部分Bを指摘する映像や音声警告の出力が行われる。あるいは、図6の画像が撮影済み画像であり、この画像について図3の画像補完処理を行うと、被写体SB1およびSB2の失敗画像部分Bを指摘する映像や音声警告の出力が行われる。   Therefore, the image of FIG. 6 is a through image, and when the image capturing support process of FIG. 2 is performed on this image, a video or audio warning indicating the failed image portion B of the subjects SB1 and SB2 is output. Alternatively, the image in FIG. 6 is a captured image, and when the image complementing process in FIG. 3 is performed on this image, a video or audio warning indicating the failed image portion B of the subjects SB1 and SB2 is output.

図7は、撮像部102などから取得された画像(スルー画または撮影済み画像)の2つ目の例を示す。画像中、被写体SB4およびSB5が存在している。被写体SB4は合焦被写体であるが、被写体SB5は、画像解析部145による当該撮影済み画像とカメラ10−Bあるいはサブ撮像部20の撮った撮影前後の補完画像との比較で、被写体SB2は動きが検出されているものとする(ただし、動き検出回路21は動きを検出しておらずカメラ10は静止しているものとする)。被写体SB2は、撮影の時に突然急に飛び出してきたような車のような移動物体である。この場合、被写体SB5が失敗画像部分であることを指摘する映像、ここでは被写体SB5を囲む破線T1の映像出力が行われる。   FIG. 7 shows a second example of an image (through image or captured image) acquired from the imaging unit 102 or the like. Subjects SB4 and SB5 exist in the image. The subject SB4 is a focused subject, but the subject SB5 is a movement of the subject SB2 by comparing the captured image obtained by the image analysis unit 145 with the complemented images taken by the camera 10-B or the sub-imaging unit 20. (However, it is assumed that the motion detection circuit 21 has not detected motion and the camera 10 is stationary). The subject SB2 is a moving object such as a car that suddenly jumps out at the time of shooting. In this case, a video indicating that the subject SB5 is a failed image portion, here, a video output of a broken line T1 surrounding the subject SB5 is performed.

あるいは、被写体SB5が合焦被写体であり、被写体SB6が合焦被写体SB5よりも距離が近い場合も、被写体SB5を囲む破線T1の映像出力が行われる。   Alternatively, even when the subject SB5 is a focused subject and the subject SB6 is closer than the focused subject SB5, video output of a broken line T1 surrounding the subject SB5 is performed.

図8は、撮像部102から取得された画像(スルー画または撮影済み画像)の3つ目の例を示す。画像中、人物であることが検出された被写体SB6およびSB7が存在している。人物被写体SB6は合焦被写体であるが、人物被写体SB7は合焦しておらず、SB7の被写体サイズは合焦被写体SB6よりも小さいものとする。この場合、被写体SB7が失敗画像部分であることを指摘する映像、ここでは被写体SB7を囲む破線T2の映像出力が行われる。   FIG. 8 shows a third example of an image (through image or captured image) acquired from the imaging unit 102. In the image, there are subjects SB6 and SB7 that are detected to be persons. The human subject SB6 is a focused subject, but the human subject SB7 is not focused, and the subject size of the SB7 is smaller than the focused subject SB6. In this case, a video indicating that the subject SB7 is a failed image portion, here, a video output of a broken line T2 surrounding the subject SB7 is performed.

図9は、失敗画像部分の修正(S14)の一例を示す。画像I2は、S6でカメラ10が記憶した撮影済み画像であり、画像I1およびI3は、S3でカメラ10−Bまたはカメラ10が画像I2の撮影前後に記憶した補完用画像であるとする。画像I1〜I3は、被写体SB11、SB12、SB13を含んでいる。画像I2の被写体SB11およびSB12は、目を瞑っており、これらの目領域は失敗画像部分である。S13にて、画像I2の被写体SB11およびSB12の各目領域が失敗画像部分P2−1、P2−2である旨が表示され、S14にて、その中から、修正したい失敗画像部分としてP2−1、P2−2の双方が選択されたとする。   FIG. 9 shows an example of the correction of the failed image part (S14). The image I2 is a captured image stored by the camera 10 in S6, and the images I1 and I3 are complementary images stored by the camera 10-B or the camera 10 before and after the image I2 is captured in S3. The images I1 to I3 include subjects SB11, SB12, and SB13. The subjects SB11 and SB12 of the image I2 have their eyes closed, and these eye regions are failed image portions. In S13, it is displayed that the respective eye areas of the subjects SB11 and SB12 of the image I2 are failed image portions P2-1 and P2-2. In S14, P2-1 is selected as a failed image portion to be corrected. , P2-2 are both selected.

なお、失敗画像登録部141が、選択されなかった失敗画像部分およびその特徴量を失敗/成功条件情報の中から削除すれば、ユーザが実際に失敗であると考える失敗画像部分およびその特徴量だけが失敗/成功条件情報に残り、徐々に精度の高い失敗画像部分およびその特徴量が失敗/成功条件情報として蓄積されていく。   Note that if the failed image registration unit 141 deletes the unselected failure image portion and its feature amount from the failure / success condition information, only the failed image portion and the feature amount that the user actually thinks to have failed. Remains in the failure / success condition information, and the failure image portion and its feature amount with high accuracy are gradually accumulated as failure / success condition information.

S15にて、CPU112は、補完用画像の中から、選択された失敗画像部分P2−1、P2−2に対応する画像部分(補完候補)を特定する。これは、画像I2の被写体SB11およびSB12と同じ位置に存在する補完用画像I1またはI3の被写体、ここでは同じく被写体SB11およびSB12の目領域を、公知の目領域検出技術(例えば特許文献5)で特定し、特定した目領域が補完候補となる。   In S15, CPU 112 identifies image portions (complementation candidates) corresponding to selected failed image portions P2-1 and P2-2 from the complementing images. This is because the subject of the complementary image I1 or I3 existing in the same position as the subject SB11 and SB12 of the image I2, here the eye region of the subject SB11 and SB12 is detected by a known eye region detection technique (for example, Patent Document 5). The identified eye area becomes a candidate for complementation.

次に、CPU112は、補完候補の特徴量と、予め登録された成功画像の特徴量とを比較し、両者が一致するか否かを判断する。そして、両者が一致すれば、その補完候補を補完用画像部分とし、両者が一致しなければ、その置換候補を排除する。   Next, the CPU 112 compares the feature amount of the supplement candidate with the feature amount of the successful image registered in advance, and determines whether or not they match. If the two match, the complement candidate is used as a complement image portion. If the two do not match, the replacement candidate is excluded.

図9の画像I2の被写体SB11の失敗画像部分P2−1に対応する補完候補は、画像I1のP1−1と画像I3のP3−1である。また、画像I2の被写体SB12の失敗画像部分P2−2に対応する補完候補は、画像I1のP1−2と画像I3のP3−2である。   Complementary candidates corresponding to the failed image portion P2-1 of the subject SB11 of the image I2 in FIG. 9 are P1-1 of the image I1 and P3-1 of the image I3. Further, the complement candidates corresponding to the failed image portion P2-2 of the subject SB12 of the image I2 are P1-2 of the image I1 and P3-2 of the image I3.

補完候補である画像I1のP1−1、画像I3のP3−2は、目瞑りが生じた目領域であり、その特徴量は成功画像の特徴量と一致しない。従って、補完候補から排除される。   P1-1 of the image I1 and P3-2 of the image I3, which are complement candidates, are eye regions where eye meditation has occurred, and the feature amounts thereof do not match the feature amounts of the successful image. Therefore, it is excluded from the complement candidates.

補完候補である画像I1のP1−2、画像I3のP3−1は、完全に目が開いた目領域であり、その特徴量は成功画像の特徴量と一致する。従って、補完用画像部分とされる。   P1-2 of the image I1 and P3-1 of the image I3, which are complement candidates, are eye regions that are completely open, and their feature amounts match the feature amounts of the successful image. Therefore, it is set as a complementary image portion.

CPU112は、失敗画像部分を、対応する補完用画像部分で置換する。例えば、P2−1はP3−1で、P2−2はP1−2で置換する。これにより、失敗画像部分が対応する補完用画像部分で置換された修正画像I’が完成する。この完成された修正画像I’は表示部110に表示される。なお、失敗画像部分が非常に小さいパーツの場合は、その部分を含めた周辺領域を置換する方が違和感が少なくなる。例えば、目、鼻、口のような顔領域内の小さいパーツを置換する場合は、それらのパーツを含む顔領域を置換するとよい。なお、修正したい失敗画像部分として、P2−1あるいはP2−2のうち一方のみが選択されれば、選択された方だけ置換される。   The CPU 112 replaces the failed image part with the corresponding complementary image part. For example, P2-1 is replaced with P3-1 and P2-2 is replaced with P1-2. Thereby, the corrected image I ′ in which the failed image portion is replaced with the corresponding complementary image portion is completed. The completed corrected image I ′ is displayed on the display unit 110. If the failed image part is a very small part, it is less uncomfortable to replace the peripheral area including that part. For example, when replacing small parts in the face area such as eyes, nose, and mouth, the face area including those parts may be replaced. If only one of P2-1 and P2-2 is selected as the failed image portion to be corrected, only the selected one is replaced.

同じ失敗画像部分に対応する補完用画像部分が複数存在する場合は、それぞれの補完用画像部分によって失敗画像部分を置換した画像を複数作成し、その中から所望の修正画像を操作部113を介して選択させ、選択された修正画像のみを画像記憶部132に記憶してもよい。   When there are a plurality of complementary image portions corresponding to the same failed image portion, a plurality of images in which the failed image portions are replaced by the respective complementary image portions are created, and a desired correction image is selected from the images via the operation unit 113. Alternatively, only the selected corrected image may be stored in the image storage unit 132.

例えば、図9の画像I4が補完用画像として確保されており、補完用画像部分P4−1が失敗画像部分P2−1に対応していれば、失敗画像部分P2−1を補完用画像部分P4−1で置換した修正画像I’2を作成し、修正画像I’と修正画像I’2のうち所望のものを選択させ、選択された方だけ記憶する。修正画像を選択させる際、選択される可能性の高い画像、例えば公知の表情認識技術により口の曲がり具合,口角の上がり具合,目の大きさ,しわのより具合などにもとづいて笑顔の程度を定量化し、その程度の高いものから低いものにかけて順次切り替えて表示させてもよい。なお、記憶する修正画像として選べるのは1つである必要はなく、出来上がった修正画像の中からどれでも好きな数だけ選んで残せる。   For example, if the image I4 in FIG. 9 is secured as a complementary image and the complementary image portion P4-1 corresponds to the failed image portion P2-1, the failed image portion P2-1 is replaced with the complementary image portion P4. A corrected image I′2 replaced with −1 is created, and a desired one of the corrected image I ′ and the corrected image I′2 is selected, and only the selected one is stored. When selecting a corrected image, the degree of smile is determined based on the image that is most likely to be selected, for example, the well-known facial expression recognition technique, the degree of bending of the mouth, the degree of rising corners, the size of the eyes, the degree of wrinkles, etc. It may be quantified and displayed by switching sequentially from the higher to the lower. Note that it is not necessary to select one corrected image to be stored, and any desired number of corrected images can be selected and left.

図10は、失敗画像部分の修正(S14)の他の一例を示す。図10の画像J2は、静止した被写体SBsにピントが合っているが、動く被写体SBmを失敗画像部分Qfとして有する撮影済み画像である。画像J1、J3は、画像J2が撮影される前後にカメラ10−Bが撮影した静止画あるいは動画の1コマであるとする。この場合も上記と同様、CPU112が、失敗画像部分Qfに対応する補完候補の中から成功画像の特徴量と一致するものを補完用画像部分Qsとして選び出し、失敗部分Qfを補完用画像部分Qsで置き換え、修正済み画像J3を得る。なお、静止画J2と動画コマJ1とは同じ程度の画質であれば、この置換による周囲の画質との不調和が生じず好ましい。   FIG. 10 shows another example of the correction of the failed image part (S14). An image J2 in FIG. 10 is a captured image that has a stationary subject SBs in focus but has a moving subject SBm as a failed image portion Qf. Assume that the images J1 and J3 are one frame of a still image or a moving image captured by the camera 10-B before and after the image J2 is captured. In this case as well, as described above, the CPU 112 selects, as the complementary image portion Qs, the one that matches the feature amount of the successful image from among the complementary candidates corresponding to the failed image portion Qf, and selects the failed portion Qf as the complementary image portion Qs. Replacement and corrected image J3 is obtained. It should be noted that it is preferable that the still image J2 and the moving image frame J1 have the same image quality, because this replacement does not cause any inconsistency with surrounding image quality.

作成された修正画像は、パソコン200aのハードディスクに保管したり、プリンタ200bでプリントアウトすることができる。無論、ユーザは修正した画像の利用を強制しされるのでなく、CPU112が、作成した修正画像のうち、所望の部分を操作部113から選択させ、選択された部分だけ修正前の元の失敗画像部分に戻した上で画像記憶部132や表示部110に出力したり、全く修正されていない失敗画像を画像記憶部132や表示部110に出力に出力してもよい。元の失敗画像部分に戻すとは、修正前と修正後の画像を一時的に記憶部119に記憶しておき、元に戻す指示が入力されれば、修正後の画像を記憶部119から破棄し、修正前の画像をそのまま記憶部119に保持すれば済む。後は、保持された画像を画像記憶部132、表示部110、プリンタ200b、記録媒体など所望の出力先に出力できる。   The created corrected image can be stored in the hard disk of the personal computer 200a or printed out by the printer 200b. Of course, the user is not forced to use the corrected image, but the CPU 112 causes the operation unit 113 to select a desired portion of the generated corrected image, and only the selected portion is the original failed image before correction. After returning to the part, the image may be output to the image storage unit 132 or the display unit 110, or a failed image that is not corrected at all may be output to the image storage unit 132 or the display unit 110. To return to the original failed image portion, the images before and after correction are temporarily stored in the storage unit 119, and if an instruction to return is input, the corrected image is discarded from the storage unit 119. Then, the image before correction may be held in the storage unit 119 as it is. Thereafter, the held image can be output to a desired output destination such as the image storage unit 132, the display unit 110, the printer 200b, or a recording medium.

<その他の実施形態>
第1実施形態の図2の撮像支援処理のS2において、スルー画と成功画像の双方の特徴量が不一致と判断されればS3、一致と判断されればS4に進んでもよい。あるいは、スルー画と失敗画像の双方の特徴量が一致と判断されればS3、スルー画と成功画像の双方の特徴量が一致と判断されれば一致と判断されればS4に進んでもよい。あるいは、スルー画と成功画像の双方の特徴量が不一致と判断されればS3、スルー画と失敗画像の双方の特徴量が不一致と判断されればS4に進んでもよい。スルー画と成功画像の双方の特徴量が一致せず、かつスルー画と失敗画像双方の特徴量が一致しない場合や、スルー画と成功画像の双方の特徴量が一致し、かつスルー画と失敗画像双方の特徴量が一致する場合は、判定不能としてS2からS6に進んでもよい。この際、判定不能である旨を表示してもよい。第2実施形態の図3の画像補完処理のS12についても、撮影済み画像について同様の判断と分岐を行ってもよい。
<Other embodiments>
In S2 of the imaging support process of FIG. 2 of the first embodiment, the process may proceed to S3 if it is determined that the feature values of both the through image and the success image are inconsistent, and to S4 if it is determined to match. Alternatively, the process may proceed to S3 if it is determined that the feature values of both the through image and the failed image match, and to S4 if it is determined that the feature values of both the through image and the success image match. Alternatively, the process may proceed to S3 if it is determined that the feature values of both the live view image and the success image do not match, and to S4 if it is determined that the feature values of both the live view image and the failure image do not match. The feature values of the live view and the success image do not match, and the feature values of the live view and the failure image do not match, or the live view and the success image match, and the live view and the fail image match. If the feature amounts of both images match, the determination may be impossible and the process may proceed from S2 to S6. At this time, it may be displayed that the determination is impossible. In S12 of the image complementing process of FIG. 3 of the second embodiment, the same determination and branching may be performed for the captured image.

デジタルカメラの機能ブロック図Functional block diagram of digital camera 撮影支援処理のフローチャートFlow chart of shooting support processing 画像補完処理のフローチャートFlow chart of image complement processing 撮影済み画像もしくはその特徴量が失敗画像もしくはその特徴量と一致するか否かを判断し、一致した場合はその旨を通知する処理のフローチャートA flowchart of processing for determining whether or not a photographed image or its feature value matches a failed image or its feature value, and notifying if it matches. 失敗画像部分および成功画像部分の一例を示す図The figure which shows an example of a failure image part and a success image part 取得された画像の1つ目の例を示す図The figure which shows the 1st example of the acquired image 取得された画像の2つ目の例を示す図The figure which shows the 2nd example of the acquired image 取得された画像の3つ目の例を示す図The figure which shows the 3rd example of the acquired image 失敗画像部分の修正の一例を示す図The figure which shows an example of correction of the failure image part 失敗画像部分の修正の他の一例を示す図The figure which shows another example of correction of the failure image part

符号の説明Explanation of symbols

10:カメラ、112:CPU、141:失敗画像登録部、142:失敗画像検出部、200:電子機器 10: Camera, 112: CPU, 141: Failure image registration unit, 142: Failure image detection unit, 200: Electronic device

Claims (18)

撮影の成功または失敗の基準となる基準画像もしくはその特徴量を登録する登録部と、
所望の画像もしくはその特徴量と、前記登録部の登録した基準画像もしくはその特徴量とを比較し、前記比較結果に応じて、前記所望の画像が撮影に失敗した画像であるか否かを判断する判断部と、
前記判断部の判断結果に応じて、補完用画像の出力を所定の画像出力装置に指示する制御部と、
を備える画像処理装置。
A registration unit for registering a reference image or its feature value as a reference for success or failure of shooting;
The desired image or its feature value is compared with the reference image or its feature value registered by the registration unit, and it is determined whether the desired image is an image that has failed to be photographed according to the comparison result. A determination unit to
A control unit that instructs a predetermined image output device to output a complementary image according to a determination result of the determination unit;
An image processing apparatus comprising:
前記登録部は、撮影の失敗の基準となる失敗基準画像もしくはその特徴量を登録し、
前記判断部は、所望の画像もしくはその特徴量と、前記登録部の登録した失敗基準画像もしくはその特徴量とを比較し、両者の一致に応じて、前記所望の画像が撮影に失敗した画像であるか否かを判断する請求項1に記載の画像処理装置。
The registration unit registers a failure reference image or a feature amount thereof serving as a reference for shooting failure,
The determination unit compares the desired image or the feature amount thereof with the failure reference image registered by the registration unit or the feature amount thereof, and determines whether the desired image has failed to be photographed according to a match between the images. The image processing apparatus according to claim 1, wherein it is determined whether or not there is.
前記登録部は、撮影の成功の基準となる成功基準画像もしくはその特徴量を登録し、
前記判断部は、所望の画像もしくはその特徴量と、前記登録部の登録した成功基準画像もしくはその特徴量とを比較し、両者の不一致に応じて、前記所望の画像が撮影に失敗した画像であるか否かを判断する請求項1に記載の画像処理装置。
The registration unit registers a success reference image that is a reference for success of shooting or a feature amount thereof,
The determination unit compares the desired image or the feature amount thereof with the success reference image registered by the registration unit or the feature amount thereof, and determines whether the desired image has failed to be photographed according to the mismatch between the images. The image processing apparatus according to claim 1, wherein it is determined whether or not there is.
前記登録部は、撮影の失敗の基準となる失敗基準画像もしくはその特徴量を登録し、
前記判断部は、前記所望の画像もしくはその特徴量と、前記登録部の登録した失敗基準画像とを比較し、両者の不一致に応じて、前記所望の画像が撮影に成功した画像であるか否かを判断する請求項2または3に記載の画像処理装置。
The registration unit registers a failure reference image or a feature amount thereof serving as a reference for shooting failure,
The determination unit compares the desired image or a feature amount thereof with a failure reference image registered by the registration unit, and determines whether the desired image is a photographed image according to a mismatch between the two. The image processing apparatus according to claim 2, wherein the image processing apparatus determines whether or not.
前記登録部は、撮影の成功の基準となる成功基準画像もしくはその特徴量を登録し、
前記判断部は、前記所望の画像もしくはその特徴量と、前記登録部の登録した成功基準画像とを比較し、両者の一致に応じて、前記所望の画像が撮影に成功した画像であるか否かを判断する請求項2または3に記載の画像処理装置。
The registration unit registers a success reference image that is a reference for success of shooting or a feature amount thereof,
The determination unit compares the desired image or a feature amount thereof with the success reference image registered by the registration unit, and whether the desired image is an image that has been successfully photographed or not according to a match between the two. The image processing apparatus according to claim 2, wherein the image processing apparatus determines whether or not.
前記判断部の判断結果に応じ、成功画像の取得条件が整った旨を通知する成功通知部を備える請求項4または5に記載の画像処理装置。   The image processing apparatus according to claim 4, further comprising a success notification unit that notifies that a condition for acquiring a success image has been established according to a determination result of the determination unit. 前記所望の画像から、前記登録部の登録した失敗基準画像もしくはその特徴量と一致する失敗部分を特定する失敗部分特定部を備える請求項2または4に記載の画像処理装置。   5. The image processing apparatus according to claim 2, further comprising a failure part specifying unit that specifies a failure part that matches a failure reference image registered by the registration unit or a feature amount thereof from the desired image. 前記判断部の判断結果および/または前記失敗部分特定部の特定した失敗部分を通知する失敗通知部を備える請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, further comprising a failure notification unit that notifies a determination result of the determination unit and / or a failure part specified by the failure part specifying unit. 前記所定の画像出力装置が出力した補完用画像を入力する補完用画像入力部と、
前記補完用画像入力部が入力した補完用画像によって、前記所望の画像のうち前記失敗部分特定部の特定した失敗部分を修正する修正部と、
を備える請求項7または8に記載の画像処理装置。
A complementary image input unit for inputting a complementary image output by the predetermined image output device;
A correction unit that corrects the failed part specified by the failed part specifying part in the desired image by the complementary image input by the complementary image input unit;
An image processing apparatus according to claim 7 or 8.
前記失敗部分特定部の特定した失敗部分のうち、修正すべき失敗部分の選択を受け付ける選択部を備え、
前記修正部は、前記選択部が選択を受け付けた失敗部分を前記補完用画像で修正する請求項9に記載の画像処理装置。
Among the failed parts identified by the failed part identifying unit, comprising a selection unit that accepts selection of a failed part to be corrected,
The image processing apparatus according to claim 9, wherein the correction unit corrects a failure portion for which the selection unit has received a selection with the complementary image.
前記選択部は、前記修正部が修正した画像のうち元に戻したい部分の選択を受け付け、
前記修正部は、前記選択部が選択を受け付けた部分を元の失敗部分に戻す請求項9または10に記載の画像処理装置。
The selection unit accepts selection of a portion to be returned to the original image corrected by the correction unit,
The image processing apparatus according to claim 9, wherein the correction unit returns the portion that the selection unit has received the selection to the original failure portion.
前記修正部が修正した画像を出力する出力部を備える請求項9〜11のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 9, further comprising an output unit that outputs an image corrected by the correction unit. 撮像レンズを介して受光した被写体像を光電変換して得られた電気信号を画像に変換して出力する第1の撮像部を備え、
前記判断部は、前記第1の撮像部の出力した画像もしくはその特徴量と、前記登録部の登録した基準画像もしくはその特徴量とを比較し、前記比較結果に応じて、前記第1の撮像部の出力した画像が撮影に失敗した画像であるか否かを判断し、
前記制御部は、前記判断部の判断結果に応じ、前記第1の撮像部または前記第1の撮像部以外の第2の撮像部を有する第2の撮像装置に前記補完用画像の取得を指示する請求項1〜8のいずれかに記載の画像処理装置。
A first imaging unit that converts an electrical signal obtained by photoelectrically converting a subject image received through an imaging lens into an image and outputs the image;
The determination unit compares the image output from the first imaging unit or the feature amount thereof with the reference image registered by the registration unit or the feature amount thereof, and determines the first imaging according to the comparison result. Determine whether the image output by the copy is an image that failed to be captured,
The control unit instructs the second imaging device having the first imaging unit or a second imaging unit other than the first imaging unit to acquire the complementary image according to the determination result of the determination unit. The image processing apparatus according to claim 1.
前記第1の撮像部の出力した画像は前記第1の撮像部に対する本撮像指示が入力される前に出力されたスルー画像を含む請求項13に記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the image output from the first imaging unit includes a through image output before a main imaging instruction is input to the first imaging unit. 前記補完用画像は前記第1の撮像部に対する本撮像指示が入力される前後に前記第1の撮像部または前記第2の撮像部が取得した静止画または動画を含む請求項13に記載の画像処理装置。   The image according to claim 13, wherein the complementary image includes a still image or a moving image acquired by the first imaging unit or the second imaging unit before and after a main imaging instruction is input to the first imaging unit. Processing equipment. 前記基準画像の特徴量は、画像データの値に関連する第1の特徴量および前記画像データの撮影時の状況に関連する前記第1の特徴量以外の特徴量である第2の特徴量のうち少なくとも一方を含む請求項1〜15のいずれかに記載の画像処理装置。   The feature amount of the reference image is a second feature amount that is a feature amount other than the first feature amount related to the value of image data and the first feature amount related to the situation at the time of shooting the image data. The image processing apparatus according to claim 1, comprising at least one of them. コンピュータが、
撮影の成功または失敗の基準となる基準画像もしくはその特徴量を登録するステップと、
所望の画像もしくはその特徴量と、前記登録した基準画像もしくはその特徴量とを比較し、前記比較結果に応じて、前記所望の画像が撮影に失敗した画像であるか否かを判断するステップと、
前記判断結果に応じて、補完用画像の出力を所定の画像出力装置に指示するステップと、
を実行する画像処理方法。
Computer
A step of registering a reference image or its feature value as a reference for success or failure of shooting;
Comparing a desired image or its feature quantity with the registered reference image or its feature quantity, and determining whether or not the desired image is an image that has failed to be photographed according to the comparison result; ,
Instructing a predetermined image output device to output a complementary image according to the determination result;
An image processing method for executing.
請求項17に記載の画像処理方法をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute the image processing method according to claim 17.
JP2008250415A 2008-09-29 2008-09-29 Image processing apparatus, method and program Pending JP2010081528A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008250415A JP2010081528A (en) 2008-09-29 2008-09-29 Image processing apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008250415A JP2010081528A (en) 2008-09-29 2008-09-29 Image processing apparatus, method and program

Publications (1)

Publication Number Publication Date
JP2010081528A true JP2010081528A (en) 2010-04-08

Family

ID=42211408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008250415A Pending JP2010081528A (en) 2008-09-29 2008-09-29 Image processing apparatus, method and program

Country Status (1)

Country Link
JP (1) JP2010081528A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119817A (en) * 2010-11-30 2012-06-21 Nikon Corp Electronic camera and correction processing program
JP2015188136A (en) * 2014-03-26 2015-10-29 京セラ株式会社 Apparatus with image-capturing function, image-capturing control method, and program
JP2016164748A (en) * 2015-03-06 2016-09-08 キヤノン株式会社 Information processing device, program, and information processing method
US9854161B2 (en) 2015-11-24 2017-12-26 Samsung Electronics Co., Ltd. Photographing device and method of controlling the same
JP2018157607A (en) * 2018-06-26 2018-10-04 オリンパス株式会社 Recording apparatus, recording method, and recording program
JP2019054447A (en) * 2017-09-15 2019-04-04 キヤノン株式会社 Imaging control apparatus and control method therefor, program and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119817A (en) * 2010-11-30 2012-06-21 Nikon Corp Electronic camera and correction processing program
JP2015188136A (en) * 2014-03-26 2015-10-29 京セラ株式会社 Apparatus with image-capturing function, image-capturing control method, and program
JP2016164748A (en) * 2015-03-06 2016-09-08 キヤノン株式会社 Information processing device, program, and information processing method
US10498909B2 (en) 2015-03-06 2019-12-03 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US9854161B2 (en) 2015-11-24 2017-12-26 Samsung Electronics Co., Ltd. Photographing device and method of controlling the same
JP2019054447A (en) * 2017-09-15 2019-04-04 キヤノン株式会社 Imaging control apparatus and control method therefor, program and storage medium
JP7030458B2 (en) 2017-09-15 2022-03-07 キヤノン株式会社 Imaging control device, its control method, and program, and storage medium
JP2018157607A (en) * 2018-06-26 2018-10-04 オリンパス株式会社 Recording apparatus, recording method, and recording program

Similar Documents

Publication Publication Date Title
US7483061B2 (en) Image and audio capture with mode selection
JP4931845B2 (en) Imaging apparatus and captured image display control method
JP5056061B2 (en) Imaging device
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP4315212B2 (en) Imaging apparatus, imaging control program, and imaging control method
JP2010062853A (en) Image processing apparatus, method and program
JP2009077026A (en) Imaging apparatus and method, and program
JP2010081528A (en) Image processing apparatus, method and program
JP2010063085A (en) Imaging device, photographing method, and program
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP2008252711A (en) Digital camera
JP4352332B2 (en) Image scoring method and image scoring system
JP2008054293A (en) System for and method of photographing, and computer program
JP2010087599A (en) Imaging apparatus and method, and program
JP2007049631A (en) Imaging apparatus
JP2009060355A (en) Imaging apparatus, imaging method, and program
JP2010081562A (en) Imaging device, method, and program
JP4948014B2 (en) Electronic camera
JP2010087598A (en) Photographic apparatus, photographic control method and program therefor, image display apparatus, image display method and program therefor, and photographic system, control method therefor and program therefor
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP6213470B2 (en) Image processing apparatus, imaging apparatus, and program
JP2011119934A (en) Image shooting device and image shooting method
JP5206421B2 (en) Digital camera, photographing recording method, and photographing control program
JP2008283572A (en) Imaging apparatus
JP2009027462A (en) Imaging apparatus, imaging method and imaging program