JP2011250351A - Imaging apparatus, imaging support method, and imaging support program - Google Patents

Imaging apparatus, imaging support method, and imaging support program Download PDF

Info

Publication number
JP2011250351A
JP2011250351A JP2010124043A JP2010124043A JP2011250351A JP 2011250351 A JP2011250351 A JP 2011250351A JP 2010124043 A JP2010124043 A JP 2010124043A JP 2010124043 A JP2010124043 A JP 2010124043A JP 2011250351 A JP2011250351 A JP 2011250351A
Authority
JP
Japan
Prior art keywords
imaging
area
image
background
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010124043A
Other languages
Japanese (ja)
Inventor
Shigeki Yamaoka
茂樹 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010124043A priority Critical patent/JP2011250351A/en
Publication of JP2011250351A publication Critical patent/JP2011250351A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate operation for adjusting a range of imaging.SOLUTION: An imaging apparatus comprises: an imaging control unit (S24) which executes imaging operation of imaging a subject and outputting the image; a reference background area extraction unit (S09) which extracts a reference background area expressing a background from a reference image based on the image selected from among the images stored in EEPROM; a target background area extraction unit (S13) which extracts a target background area expressing a background from an image outputted by the imaging control unit; a comparison unit (S15) which compares the reference background area and the target background area; and a reporting unit which reports a comparison result obtained by the comparison unit.

Description

この発明は、撮像装置、撮像支援方法および撮像支援プログラムに関し、特に撮像を補助することが可能な撮像装置、その撮像装置で実行される撮像支援方法および撮像支援プログラムに関する。   The present invention relates to an imaging apparatus, an imaging support method, and an imaging support program, and more particularly to an imaging apparatus capable of assisting imaging, an imaging support method executed by the imaging apparatus, and an imaging support program.

従来、主要被写体となる人物と撮影者とが交代して同じ背景で複数の画像を撮像する場合に、カメラの撮像範囲が同じになるように撮影者を支援する技術が開発されている。例えば、特開2005−102263号公報には、被写体を撮像する撮像手段と、撮影待機状態で撮像手段により撮像された画像をスルー画像として表示する表示手段とを備えたカメラ装置において、所定の撮影モードで、画像を記録する本撮影に先立つ仮撮影に際して前記撮像手段により撮像された画像の構図を示す基準画像を一時記憶する一時記憶手段と、この一時記憶手段に一時記憶されている基準画像を前記撮像手段により逐次撮像される画像とを合成する合成手段と、前記本撮影の待機状態で、前記合成手段により合成された合成画像を前記表示手段に表示させる制御手段とを備えたことを特徴とするカメラ装置が記載されている。   Conventionally, when a person who is a main subject and a photographer take turns to capture a plurality of images with the same background, a technology has been developed to assist the photographer so that the imaging range of the camera is the same. For example, in Japanese Patent Application Laid-Open No. 2005-102263, a predetermined photographing is performed in a camera device including an imaging unit that images a subject and a display unit that displays an image captured by the imaging unit in a shooting standby state as a through image. In the mode, a temporary storage means for temporarily storing a reference image showing a composition of an image captured by the imaging means at the time of temporary shooting prior to the main shooting for recording an image, and a reference image temporarily stored in the temporary storage means. A combination unit configured to combine the images sequentially captured by the imaging unit; and a control unit configured to display the combined image combined by the combination unit on the display unit in a standby state of the main photographing. Is described.

しかしながら、従来のカメラ装置においては、仮撮影時に撮像された基準画像と、スルー画像とで被写体が異なる場合に、スルー画像を基準画像と重なるように撮像範囲を変更する操作が困難であるといった問題がある。例えば、本撮像時には存在しない被写体が仮撮像時に存在した場合は、スルー画像とともに実際には存在しない被写体が基準画像として表示されるので、スルー画像のいずれの部分を基準画像に合わせればよいのかを判断できない場合がある。逆に、本撮像時には存在する被写体が仮撮像時には存在しない場合は、スルー画像の被写体部分にその背景が基準画像として表示されるので、スルー画像のいずれの部分を基準画像に合わせればよいのかを判断できない場合がある。
特開2005−102263号公報
However, in the conventional camera device, when the subject is different between the reference image captured during temporary shooting and the through image, it is difficult to change the imaging range so that the through image overlaps the reference image. There is. For example, if a subject that does not exist at the time of actual imaging is present at the time of provisional imaging, a subject that does not actually exist is displayed as a reference image together with the through image, so which part of the through image should be matched with the reference image It may not be possible to judge. On the other hand, if the subject that exists at the time of actual imaging does not exist at the time of provisional imaging, the background is displayed as the reference image on the subject portion of the through image, so which part of the through image should be matched with the reference image. It may not be possible to judge.
JP 2005-102263 A

この発明は、上述した問題点を解決するためになされたもので、この発明の目的の1つは、ユーザによる撮像範囲を合わせる操作を容易にした撮像装置を提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide an imaging apparatus that facilitates an operation for adjusting the imaging range by the user.

この発明の他の目的は、ユーザによる撮像範囲を合わせる操作を容易にした撮像支援方法を提供することである。   Another object of the present invention is to provide an imaging support method that makes it easy for a user to adjust the imaging range.

この発明のさらに他の目的は、ユーザによる撮像範囲を合わせる操作を容易にした撮像支援プログラムを提供することである。   Still another object of the present invention is to provide an imaging support program that makes it easy for a user to adjust the imaging range.

上述した問題を達成するためにこの発明のある局面によれば、撮像装置は、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段と、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出する参照背景領域抽出手段と、撮像手段により出力された画像から背景が表された対象背景領域を抽出する対象背景領域抽出手段と、参照背景領域と対象背景領域とを比較する比較手段と、比較手段による比較結果を通知する通知手段と、を備える。   In order to achieve the above-described problem, according to an aspect of the present invention, an imaging apparatus selects an imaging unit that performs an imaging operation for imaging a subject and outputs the image, and an image stored in the storage unit. A reference background area extracting means for extracting a reference background area representing a background from a reference image based on the displayed image, and a target background area extracting means for extracting a target background area representing a background from the image output by the imaging means And comparison means for comparing the reference background area and the target background area, and notification means for notifying the comparison result by the comparison means.

この局面に従えば、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域が抽出され、撮像手段により出力された画像から背景が表された対象背景領域が抽出され、参照背景領域と対象背景領域との比較結果が通知される。このため、ユーザは、通知される比較結果に基づいて、これから撮像しようとする画像の撮像範囲を変更することができる。その結果、撮像範囲を合わせる操作を容易にした撮像装置を提供することができる。   According to this aspect, the reference background region representing the background is extracted from the reference image based on the image selected from the images stored in the storage unit, and the background is represented from the image output by the imaging unit. The target background area is extracted, and a comparison result between the reference background area and the target background area is notified. For this reason, the user can change the imaging range of an image to be captured from now on based on the notified comparison result. As a result, it is possible to provide an imaging apparatus that facilitates an operation for adjusting the imaging range.

好ましくは、参照背景領域抽出手段は、参照画像から物体が表された参照物体領域を抽出する参照物体領域抽出手段と、抽出された参照物体領域を含み、参照物体領域と所定の関係にある領域を参照被写体領域として抽出する参照被写体領域抽出手段と、を含み、参照画像から参照被写体領域を除いた領域を参照背景領域として抽出し、対象背景領域抽出手段は、撮像手段により出力された画像から物体が表された対象物体領域を抽出する対象物体領域抽出手段と、抽出された対象物体領域を含み、対象物体領域と所定の関係にある領域を対象被写体領域として抽出する対象被写体領域抽出手段と、を含み、撮像手段により出力された画像から対象被写体領域を除いた領域を対象背景領域として抽出する。   Preferably, the reference background area extracting means includes a reference object area extracting means for extracting a reference object area representing an object from the reference image, and an area including the extracted reference object area and having a predetermined relationship with the reference object area. A reference subject region extracting means for extracting the reference subject region as a reference subject region, extracting a reference subject region from the reference image as a reference background region, and the target background region extracting means from the image output by the imaging means Target object region extracting means for extracting a target object region in which an object is represented; target subject region extracting means for extracting, as a target subject region, a region including the extracted target object region and having a predetermined relationship with the target object region; , And a region obtained by removing the target subject region from the image output by the imaging unit is extracted as a target background region.

この局面に従えば、画像から主要被写体が表された領域と、主要被写体を除いた背景が表された領域とを容易に抽出することができる。   According to this aspect, it is possible to easily extract an area representing the main subject and an area representing the background excluding the main subject from the image.

好ましくは、比較手段は、参照背景領域と対象背景領域とのずれ量を検出するずれ量検出手段と、ずれ量が所定条件を満たすか否かを判別する判別手段と、を備え、通知手段は、判別手段による判別の結果、ずれ量が所定条件を満たしていないと判別すると、ずれ量を通知する。   Preferably, the comparison unit includes a shift amount detection unit that detects a shift amount between the reference background region and the target background region, and a determination unit that determines whether or not the shift amount satisfies a predetermined condition. If it is determined that the deviation amount does not satisfy the predetermined condition as a result of the discrimination by the discrimination means, the deviation amount is notified.

この局面に従えば、参照背景領域と対象背景領域とのずれ量が検出され、ずれ量が所定条件を満たしていないと判別されると、ずれ量が通知される。このため、ユーザは、通知されたずれ量に応じて、撮像しようとする画像の背景が記憶された画像の背景に一致するように撮像範囲を変更することができる。   According to this aspect, the shift amount between the reference background region and the target background region is detected, and when it is determined that the shift amount does not satisfy the predetermined condition, the shift amount is notified. For this reason, the user can change the imaging range so that the background of the image to be captured matches the background of the stored image according to the notified deviation amount.

好ましくは、通知手段は、参照背景領域に対応する画像と撮像手段により出力された画像とを透過率に基づいて合成し、表示する合成画像表示手段を含む。   Preferably, the notification unit includes a combined image display unit that combines and displays an image corresponding to the reference background area and an image output by the imaging unit based on the transmittance.

この局面に従えば、参照背景領域に対応する画像と撮像手段により出力された画像とが透過率に基づいて合成され、表示されるので、ユーザは、撮像しようとする画像と、記憶された画像の背景の画像とを同時に見ることができる。   According to this aspect, the image corresponding to the reference background area and the image output by the imaging unit are combined and displayed based on the transmittance, so that the user can select the image to be captured and the stored image. You can see the background image at the same time.

この発明の他の局面によれば、撮像装置は、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段と、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出する参照被写体域抽出手段と、撮像手段により出力された画像から被写体が表された対象被写体領域を抽出する対象被写体域抽出手段と、参照画像から参照被写体領域を除いた領域を参照背景領域として抽出する参照背景領域抽出手段と、撮像手段により出力された画像から対象被写体領域を除いた領域を対象背景領域として抽出する対象背景領域抽出手段と、参照背景領域と対象背景領域とを比較する比較手段と、比較手段による比較結果を通知する通知手段と、を備える。   According to another aspect of the present invention, an imaging apparatus captures a subject and outputs a reference image based on an image selected from an imaging unit that executes an imaging operation for outputting the image and an image stored in the storage unit A reference subject area extracting means for extracting a reference subject area representing the subject from the image, a target subject area extracting means for extracting a target subject area representing the subject from the image output by the imaging means, and a reference subject from the reference image A reference background region extracting unit that extracts a region excluding the region as a reference background region, a target background region extracting unit that extracts a region excluding the target subject region from the image output by the imaging unit, and a reference background Comparing means for comparing the area with the target background area, and notification means for notifying the comparison result by the comparing means.

この局面に従えば、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域が抽出され、撮像手段により出力された画像から被写体が表された対象被写体領域が抽出され、参照画像から参照被写体領域を除いた領域が参照背景領域として抽出され、撮像手段により出力された画像から対象被写体領域を除いた領域が対象背景領域として抽出され、参照背景領域と対象背景領域との比較結果が通知される。このため、ユーザは、通知される比較結果に基づいて、これから撮像しようとする画像の撮像範囲を変更することができる。その結果、撮像範囲を合わせる操作を容易にした撮像装置を提供することができる。   According to this aspect, the reference subject area representing the subject is extracted from the reference image based on the image selected from the images stored in the storage unit, and the subject is represented from the image output by the imaging unit. A target subject region is extracted, a region obtained by removing the reference subject region from the reference image is extracted as a reference background region, a region obtained by removing the target subject region from the image output by the imaging unit is extracted as a target background region, and a reference background is extracted. A comparison result between the area and the target background area is notified. For this reason, the user can change the imaging range of an image to be captured from now on based on the notified comparison result. As a result, it is possible to provide an imaging apparatus that facilitates an operation for adjusting the imaging range.

好ましくは、比較手段は、参照背景領域から対象被写体領域を除いた参照背景差分領域と対象背景領域から参照被写体領域を除いた対象背景差分領域との差分を背景差分として算出する背景差分算出手段と、背景差分が所定条件を満たすか否かを判別する判別手段と、を含む。   Preferably, the comparison means includes a background difference calculation means for calculating a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference. Determining means for determining whether or not the background difference satisfies a predetermined condition.

好ましくは、比較手段は、参照背景領域から対象被写体領域を除いた参照背景差分領域と対象背景領域から参照被写体領域を除いた対象背景差分領域との差分を背景差分として算出する背景差分算出手段と、参照被写体領域と対象被写体領域とで共通する領域の差分を被写体差分として算出する被写体差分算出手段と、背景差分と被写体差分とに重み付けした重付差分を算出する重付差分算出手段と、重付差分が所定条件を満たすか否かを判別する判別手段と、を含む。   Preferably, the comparison means includes a background difference calculation means for calculating a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference. Subject difference calculation means for calculating a difference between areas common to the reference subject area and the target subject area as subject differences, weight difference calculation means for calculating a weighting difference weighted to the background difference and the subject difference, Discriminating means for discriminating whether or not the attached difference satisfies a predetermined condition.

好ましくは、通知手段は、重付差分が所定条件を満たさないと判別された場合に、参照背景差分領域に対応する画像と撮像手段により出力された画像とを透過率に基づいて合成し、表示する合成画像表示手段を含む。   Preferably, when it is determined that the weighting difference does not satisfy the predetermined condition, the notifying unit combines the image corresponding to the reference background difference region and the image output by the imaging unit based on the transmittance, and displays And a composite image display means.

好ましくは、参照画像は、記憶手段に直前に記憶された画像である。   Preferably, the reference image is an image stored immediately before in the storage unit.

好ましくは、参照画像は、記憶手段に記憶された画像のうちからユーザにより選択された画像である。   Preferably, the reference image is an image selected by the user from among the images stored in the storage unit.

この発明の他の局面によれば、撮像支援方法は、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置で実行される撮像支援方法であって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、を含む。   According to another aspect of the present invention, an imaging support method is an imaging support method executed by an imaging apparatus including an imaging unit that executes an imaging operation of imaging a subject and outputting an image. A step of extracting a reference background region representing a background from a reference image based on an image selected from among the stored images, and a step of extracting a target background region representing a background from the image output by the imaging means And a step of comparing the reference background region and the target background region, and a step of notifying a comparison result in the comparing step.

この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援方法を提供することができる。   According to this aspect, it is possible to provide an imaging support method that facilitates an operation for adjusting the imaging range.

この発明の他の局面によれば、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置で実行される撮像支援方法であって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、参照画像から参照被写体領域および対象被写体領域のいずれでもない参照背景領域を抽出するステップと、撮像手段により出力された画像から参照被写体領域および対象被写体領域のいずれでもない対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、を含む。   According to another aspect of the present invention, there is provided an imaging support method executed by an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting the image, and the image stored in the storage unit A step of extracting a reference subject area in which a subject is represented from a reference image based on an image selected from among the steps, a step of extracting a target subject region in which the subject is represented from an image output by an imaging unit, and a reference image Extracting a reference background region that is neither the reference subject region nor the target subject region, extracting a target background region that is neither the reference subject region nor the target subject region from the image output by the imaging unit, and a reference background A step of comparing the region with the target background region, and a step of notifying a comparison result in the comparing step.

この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援方法を提供することができる。   According to this aspect, it is possible to provide an imaging support method that facilitates an operation for adjusting the imaging range.

この発明のさらに他の局面によれば、撮像支援プログラムは、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置を制御するコンピュータで実行される撮像支援プログラムであって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、をコンピュータに実行させる。   According to still another aspect of the present invention, the imaging support program is an imaging support program that is executed by a computer that controls an imaging apparatus that includes an imaging unit that performs imaging operation of imaging a subject and outputting the image. Extracting a reference background area representing a background from a reference image based on an image selected from images stored in the storage means, and a target background representing a background from the image output by the imaging means The computer is caused to execute a step of extracting a region, a step of comparing the reference background region and the target background region, and a step of notifying a comparison result in the comparing step.

この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援プログラムを提供することができる。   According to this aspect, it is possible to provide an imaging support program that facilitates an operation for adjusting the imaging range.

この発明のさらに他の局面によれば、撮像支援プログラムは、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置を制御するコンピュータで実行される撮像支援プログラムであって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、参照画像から参照被写体領域および対象被写体領域のいずれでもない参照背景領域を抽出するステップと、撮像手段により出力された画像から参照被写体領域および対象被写体領域のいずれでもない対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、をコンピュータに実行させる。   According to still another aspect of the present invention, the imaging support program is an imaging support program that is executed by a computer that controls an imaging apparatus that includes an imaging unit that performs imaging operation of imaging a subject and outputting the image. Extracting a reference subject area representing the subject from a reference image based on an image selected from the images stored in the storage unit, and a target subject representing the subject from the image output by the imaging unit A step of extracting a region, a step of extracting a reference background region that is neither a reference subject region nor a target subject region from a reference image, and a target that is neither a reference subject region nor a target subject region from an image output by an imaging unit A step of extracting the background region, a step of comparing the reference background region and the target background region, and a step of comparing To execute the step of notifying a comparison result at the flop, to the computer.

この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援プログラムを提供することができる。   According to this aspect, it is possible to provide an imaging support program that facilitates an operation for adjusting the imaging range.

本発明の実施の形態の1つにおけるデジタルスチルカメラの構成の概略を示すブロック図である。It is a block diagram which shows the outline of a structure of the digital still camera in one of the embodiments of this invention. 第1の実施の形態におけるデジタルスチルカメラが備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示す機能ブロック図である。It is a functional block diagram which shows an example of the outline | summary of the function of the control part with which the digital still camera in 1st Embodiment is provided with the data memorize | stored in EEPROM. 参照背景領域の一例を示す図である。It is a figure which shows an example of a reference background area | region. 撮像エリアの一例を示す図である。It is a figure which shows an example of an imaging area. 検出エリアの一例を示す図である。It is a figure which shows an example of a detection area. 動きベクトル決定部の詳細な構成の一例を示す図である。It is a figure which shows an example of a detailed structure of a motion vector determination part. 第1の実施の形態における撮像処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the imaging process in 1st Embodiment. 変形例における比較部の構成の一例を示す図である。It is a figure which shows an example of a structure of the comparison part in a modification. 第1の実施の形態の変形例における動きベクトル算出処理の流れの一例を示したフローチャートである。It is the flowchart which showed an example of the flow of the motion vector calculation process in the modification of 1st Embodiment. 第2の実施の形態におけるデジタルスチルカメラが備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示す機能ブロック図である。It is a functional block diagram which shows an example of the outline | summary of the function of the control part with which the digital still camera in 2nd Embodiment is provided with the data memorize | stored in EEPROM. 第2の実施の形態における撮像処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the imaging process in 2nd Embodiment. 第2の実施の形態の変形例におけるデジタルスチルカメラが備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示す機能ブロック図である。It is a functional block diagram which shows an example of the outline | summary of the function of the control part with which the digital still camera in the modification of 2nd Embodiment is provided with the data memorize | stored in EEPROM. 第2の実施の形態の変形例における撮像処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the imaging process in the modification of 2nd Embodiment.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
図1は、本発明の実施の形態の1つにおけるデジタルスチルカメラの構成の概略を示すブロック図である。図1を参照して、デジタルスチルカメラ1は、デジタルスチルカメラ1の全体を制御する制御部11と、フォーカスレンズおよびズームレンズを含む複数のレンズで構成されるレンズ群13と、レンズ群13を駆動するレンズ駆動部15と、イメージセンサ19と、コーデック(CODEC)21と、画像を処理する信号処理回路22と、液晶表示装置(LCD)23と、制御部11が実行するためのプログラム等を記憶するEEPROM(Electrically Erasable and Programmable Read Only Memory)25と、制御部11の作業領域として用いられるSDRAM(Synchronous Dynamic Random Access Memory)27と、メモリカード29Aが装着されるカードインターフェース(I/F)29と、スピーカ31と、ユーザの操作を受け付ける操作部35と、を含む。
<First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of a digital still camera according to one embodiment of the present invention. Referring to FIG. 1, a digital still camera 1 includes a control unit 11 that controls the entire digital still camera 1, a lens group 13 that includes a plurality of lenses including a focus lens and a zoom lens, and a lens group 13. A lens driving unit 15 to be driven, an image sensor 19, a codec (CODEC) 21, a signal processing circuit 22 for processing an image, a liquid crystal display (LCD) 23, a program to be executed by the control unit 11, and the like. An EEPROM (Electrically Erasable and Programmable Read Only Memory) 25 to be stored, an SDRAM (Synchronous Dynamic Random Access Memory) 27 used as a work area of the control unit 11, and a memory card 29 are installed. That includes a card interface (I / F) 29, a speaker 31, an operation unit 35 that accepts an operation by a user, the.

レンズ群13は、デジタルスチルカメラ1本体の前面に設けられ、LCD23は、レンズ群13が設けられる面とは反対のデジタルスチルカメラ1の背面に設けられる。レンズ群13は、レンズ駆動部15により制御され、フォーカスレンズを移動することにより焦点を合わせる。レンズ群13は、ズームレンズを調整するズーム機構を有し、レンズ駆動部15は、レンズ群13のズーム量を変更する。   The lens group 13 is provided on the front surface of the digital still camera 1 main body, and the LCD 23 is provided on the back surface of the digital still camera 1 opposite to the surface on which the lens group 13 is provided. The lens group 13 is controlled by the lens driving unit 15 and is focused by moving the focus lens. The lens group 13 has a zoom mechanism that adjusts the zoom lens, and the lens driving unit 15 changes the zoom amount of the lens group 13.

イメージセンサ19は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の光電変換素子であり、その結像面がレンズ群13の光軸に対して垂直となる。イメージセンサ19は、レンズ群13を介して結像面に結像する被写体の光学画像を光電変換し、画像データを制御部11に出力する。制御部11は、イメージセンサ19から出力される画像データを受け付け、画像データをSDRAM27に記憶する。ここでの画像データは、例えば、1画素がR(赤)G(緑)B(青)で構成されるビットマップ形式のデータである。なお、イメージセンサ19は、CMOSイメージセンサに限定されるものではなく、CCD(Charge Coupled Device)イメージセンサを用いてもよい。この場合、CCDイメージセンサは、アナログの信号を出力するので、アナログ/デジタル変換器によってCCDイメージセンサが出力するアナログの信号をデジタルの画像データに変換すればよい。なお、ここでは、光電変換素子としてのCMOSイメージセンサが出力するデジタルの画像データ、CCDイメージセンサが出力するアナログの信号を、総称して画像信号という。   The image sensor 19 is a photoelectric conversion element such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and its imaging plane is perpendicular to the optical axis of the lens group 13. The image sensor 19 photoelectrically converts an optical image of a subject formed on the imaging surface via the lens group 13 and outputs image data to the control unit 11. The control unit 11 receives image data output from the image sensor 19 and stores the image data in the SDRAM 27. The image data here is, for example, bitmap format data in which one pixel is composed of R (red), G (green), and B (blue). The image sensor 19 is not limited to a CMOS image sensor, and a CCD (Charge Coupled Device) image sensor may be used. In this case, since the CCD image sensor outputs an analog signal, the analog signal output from the CCD image sensor may be converted into digital image data by an analog / digital converter. Here, digital image data output from a CMOS image sensor as a photoelectric conversion element and analog signals output from a CCD image sensor are collectively referred to as an image signal.

イメージセンサ19は、制御部11により制御され、光電変換する時間が制御される。具体的には、制御部11は、イメージセンサ19に光電変換を開始させる場合、レンズ群13とイメージセンサ19との間に設けられたシャッタを開放する。これにより、イメージセンサ19が光電変換を開始する。制御部11は、光電変換させる時間が経過すると、シャッタを閉じ、イメージセンサ19に画像データを出力させる。   The image sensor 19 is controlled by the control unit 11 to control the time for photoelectric conversion. Specifically, when the control unit 11 causes the image sensor 19 to start photoelectric conversion, the control unit 11 opens a shutter provided between the lens group 13 and the image sensor 19. Thereby, the image sensor 19 starts photoelectric conversion. When the time for photoelectric conversion has elapsed, the control unit 11 closes the shutter and causes the image sensor 19 to output image data.

信号処理回路22は、SDRAM27に記憶された画像データを読み出し、画像データに対して種々の信号処理を施し、輝度信号と色差信号とで表される表色系のYUV形式に変換する。信号処理回路22は、YUV形式の画像データをSDRAM27に記憶する。   The signal processing circuit 22 reads the image data stored in the SDRAM 27, performs various signal processing on the image data, and converts the image data into a color system YUV format represented by a luminance signal and a color difference signal. The signal processing circuit 22 stores YUV format image data in the SDRAM 27.

制御部11は、SDRAM27に記憶されたYUV形式の画像データからRGB信号を生成し、LCD23に出力する。これにより、LCD23にイメージセンサ19が撮像して出力する画像が表示される。なお、LCD23に代えて、有機EL(ElectroLuminescence)ディスプレイを用いてもよい。   The control unit 11 generates an RGB signal from the YUV format image data stored in the SDRAM 27 and outputs the RGB signal to the LCD 23. Thereby, an image output by the image sensor 19 is displayed on the LCD 23. Instead of the LCD 23, an organic EL (ElectroLuminescence) display may be used.

コーデック21は、制御部11により制御され、SDRAM27に記憶されたYUV形式の画像データを読出し、圧縮符合化し、画像データを圧縮符号化した符号化データをSDRAM27またはEEPROM25に記憶する。ここでは、画像データをJPEG(Joint Photographic Experts Group)方式で圧縮符号化する。したがって、デジタルスチルカメラ1で静止画を撮像し記録する場合、ユーザがシャッタボタン35Aを押下すれば、SDRAM27に静止画の画像データが記憶され、コーデック21により静止画の画像データがJPEG方式で圧縮符号化されて、JPEG方式の符号化データがSDRAM27またはEEPROM25に記憶される。   The codec 21 is controlled by the control unit 11, reads the YUV format image data stored in the SDRAM 27, performs compression encoding, and stores the encoded data obtained by compressing and encoding the image data in the SDRAM 27 or the EEPROM 25. Here, the image data is compression-encoded by the JPEG (Joint Photographic Experts Group) method. Therefore, when the digital still camera 1 captures and records a still image, if the user presses the shutter button 35A, the still image data is stored in the SDRAM 27, and the still image data is compressed by the codec 21 using the JPEG method. After being encoded, JPEG encoded data is stored in the SDRAM 27 or the EEPROM 25.

操作部35は、撮像を開始する指示を受け付けるためのシャッタボタン35Aおよび撮像モードを設定する指示を受け付けるためのモード設定ボタン35Bを含む複数のボタンを含み、ユーザの操作を受け付ける。なお、操作部35は、LCD23上に重畳されたタッチパネルを含むようにしてもよい。   The operation unit 35 includes a plurality of buttons including a shutter button 35A for accepting an instruction to start imaging and a mode setting button 35B for accepting an instruction to set an imaging mode, and accepts a user operation. The operation unit 35 may include a touch panel superimposed on the LCD 23.

カードI/F29は、不揮発性メモリを備えたメモリカード29Aが装着される。制御部11は、カードI/F29を介して、メモリカード29Aにアクセス可能であり、SDRAM27に記憶された符号化データをメモリカード29Aに記憶したり、または、メモリカード29Aに記憶された符号化データを読み出してSDRAM27に記憶したりする。   The card I / F 29 is loaded with a memory card 29A having a nonvolatile memory. The control unit 11 can access the memory card 29A via the card I / F 29, and stores the encoded data stored in the SDRAM 27 in the memory card 29A or the encoded data stored in the memory card 29A. Data is read out and stored in the SDRAM 27.

なお、撮像支援プログラムをEEPROM25に記憶する例を説明するが、EEPROM25に限られず、メモリカード29Aに記憶された撮像支援プログラムを実行するようにしても良い。さらに、撮像支援プログラムを記憶する記録媒体としては、メモリカード29Aに限られず、磁気テープ、フレキシブルディスク、光ディスク(CD−ROM(Compact Disc−Read Only Memory)/MO(Magnetic Optical Disc/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード(メモリカードを含む)、光カード、マスクROM、EPROM(Erasable Programmable ROM)などであってもよい。   An example in which the imaging support program is stored in the EEPROM 25 will be described. However, the imaging support program is not limited to the EEPROM 25, and the imaging support program stored in the memory card 29A may be executed. Further, the recording medium for storing the imaging support program is not limited to the memory card 29A, but a magnetic tape, a flexible disk, an optical disk (CD-ROM (Compact Disc-Read Only Memory) / MO (Magnetic Optical Disc / MD (Mini Disc)). ) / DVD (Digital Versatile Disc)), IC card (including memory card), optical card, mask ROM, EPROM (Erasable Programmable ROM), and the like.

本実施の形態におけるデジタルスチルカメラ1は、過去に撮像した画像と同じ背景に撮像範囲を合わせて2枚目以降の画像を撮像する際に、撮像範囲を合わせる操作を補助する機能を有する。過去に撮像した画像と背景を同一にして撮像する状況として、例えば、集合写真などを撮像する場合にデジタルスチルカメラ1を操作する人物と主要被写体となる人物とが入れ替わって撮像する第1の状況と、過去に訪れたことのある場所で撮像された画像の背景と一致させて撮像する第2の状況とがある。第1の状況と第2の状況とでは、撮像しようとする画像の背景を合わせる画像が異なる。ここでは、第1の状況で撮像する撮像モードを直前画像参照モードとし、第2の状況で撮像する撮像モードを過去画像参照モードとする。撮像モードは、ユーザが操作部35の備えるモード設定ボタン35Bを操作することにより、直前画像参照モードおよび過去画像参照モードのいずれかに設定される。   The digital still camera 1 according to the present embodiment has a function of assisting an operation for adjusting the imaging range when the second and subsequent images are captured by matching the imaging range with the same background as the image captured in the past. As a situation where the background is the same as the image taken in the past, for example, when taking a group photo, the first situation where the person who operates the digital still camera 1 and the person who is the main subject are interchanged And a second situation where the image is captured in the same background as the background of the image captured at a place that has been visited in the past. The first situation and the second situation differ in the image that matches the background of the image to be captured. Here, the imaging mode for imaging in the first situation is set as the immediately preceding image reference mode, and the imaging mode for imaging in the second situation is set as the past image reference mode. The imaging mode is set to either the previous image reference mode or the past image reference mode when the user operates a mode setting button 35B provided in the operation unit 35.

図2は、第1の実施の形態におけるデジタルスチルカメラ1が備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示すブロック図である。図2に示す機能は、デジタルスチルカメラ1が備える制御部11が、EEPROM25に記憶された撮像支援プログラムを実行することにより、実現される。図2を参照して、制御部11は、イメージセンサ19を制御する撮像制御部61と、LCD23を制御する表示制御部63と、記憶制御部67と、操作を受け付ける操作受付部65と、撮像を補助する補助部69とを備える。   FIG. 2 is a block diagram illustrating an example of an outline of functions of the control unit included in the digital still camera 1 according to the first embodiment, together with data stored in the EEPROM. The functions shown in FIG. 2 are realized when the control unit 11 included in the digital still camera 1 executes an imaging support program stored in the EEPROM 25. Referring to FIG. 2, the control unit 11 includes an imaging control unit 61 that controls the image sensor 19, a display control unit 63 that controls the LCD 23, a storage control unit 67, an operation reception unit 65 that receives operations, and an imaging. And an auxiliary portion 69 for assisting.

操作受付部65は、ユーザが操作部35の備えるシャッタボタン35Aを半押すると、フォーカス指示を撮像制御部61に出力し、ユーザがシャッタボタン35Aを全押すると、撮像指示を撮像制御部61に出力する。   When the user half-presses the shutter button 35A included in the operation unit 35, the operation receiving unit 65 outputs a focus instruction to the imaging control unit 61. When the user fully presses the shutter button 35A, the operation receiving unit 65 outputs the imaging instruction to the imaging control unit 61. Output.

撮像制御部61は、操作受付部65から撮像指示が入力される前の段階では、イメージセンサ19に所定時間間隔で画像データを出力させ、イメージセンサ19により出力される画像データを表示制御部63および補助部69に出力する。表示制御部63は、操作受付部65から撮像指示が入力される前の段階で、撮像制御部61から所定時間間隔で入力される画像データの画像をLCD23に表示する。撮像指示が入力される前の段階でLCD23により表示される画像を、スルー画像という。   The imaging control unit 61 causes the image sensor 19 to output image data at predetermined time intervals before the imaging instruction is input from the operation accepting unit 65, and displays the image data output by the image sensor 19 as a display control unit 63. And output to the auxiliary unit 69. The display control unit 63 displays the image of the image data input at predetermined time intervals from the imaging control unit 61 on the LCD 23 before the imaging instruction is input from the operation receiving unit 65. An image displayed on the LCD 23 before the imaging instruction is input is referred to as a through image.

撮像制御部61は、フォーカス指示が入力されることに応じて、レンズ駆動部15を制御して、イメージセンサ19が所定の時間間隔で出力する画像データのコントラストが高くなるようにレンズ群13のフォーカスレンズを調整する、いわゆるオートフォーカス機能によりフォーカスを合わせる。なお、オートフォーカス機能の方式は、これに限定されることなく、他の方式を用いるようにしてもよい。   The imaging control unit 61 controls the lens driving unit 15 in response to the input of the focus instruction so that the contrast of the image data output by the image sensor 19 at a predetermined time interval becomes high. The focus is adjusted by adjusting the focus lens, the so-called autofocus function. Note that the method of the autofocus function is not limited to this, and other methods may be used.

撮像制御部61は、操作受付部65から撮像指示が入力されると、レンズ駆動部15およびイメージセンサ19を制御して、イメージセンサ19に予め定められたシャッタ速度に対応する撮像時間だけ光電変換(露光)させ、イメージセンサ19が出力する画像データを取得する。具体的には、撮像制御部61は、操作受付部65から撮像指示が入力されると、フォーカスレンズを固定し、予め設定されたシャッタ速度に対応する撮像時間の間、レンズ群13に含まれるシャッタを開放することによってイメージセンサ19による光電変換を開始させる。そして、撮像制御部61は、撮像時間が経過するとシャッタを閉鎖し、イメージセンサ19が出力する画像データを取得し、取得した画像データを表示制御部63および記憶制御部67に出力する。   When an imaging instruction is input from the operation receiving unit 65, the imaging control unit 61 controls the lens driving unit 15 and the image sensor 19 to perform photoelectric conversion for an imaging time corresponding to a shutter speed predetermined for the image sensor 19. (Exposure), and image data output by the image sensor 19 is acquired. Specifically, when an imaging instruction is input from the operation receiving unit 65, the imaging control unit 61 fixes the focus lens and is included in the lens group 13 for an imaging time corresponding to a preset shutter speed. The photoelectric conversion by the image sensor 19 is started by opening the shutter. Then, the imaging control unit 61 closes the shutter when the imaging time has elapsed, acquires the image data output by the image sensor 19, and outputs the acquired image data to the display control unit 63 and the storage control unit 67.

表示制御部63は、操作受付部65が撮像指示を出力した後に撮像制御部61から入力される画像データの画像をLCD23に表示する。   The display control unit 63 displays an image of the image data input from the imaging control unit 61 on the LCD 23 after the operation receiving unit 65 outputs the imaging instruction.

記憶制御部67は、ユーザがLCD23に表示された画像を記憶する指示を操作部35に入力すると、操作受付部65が撮像指示を出力した後に撮像制御部61から入力される画像データを、コーデックに圧縮符号化させ、圧縮符号化された画像データをEEPROM25に記憶する。これにより、EEPROM25に画像データ101が記憶される。   When the user inputs an instruction to store the image displayed on the LCD 23 to the operation unit 35, the storage control unit 67 converts the image data input from the imaging control unit 61 after the operation reception unit 65 outputs the imaging instruction into the codec. The image data subjected to compression encoding is stored in the EEPROM 25. As a result, the image data 101 is stored in the EEPROM 25.

操作受付部65は、ユーザがモード設定ボタン35Bを操作すると、撮像モードを直前画像参照モードと過去画像参照モードとのいずれかに設定する指示を受け付ける。操作受付部65は、直前画像参照モードに設定する指示を受け付けると、撮像モードを直前画像参照モードに設定し、過去画像参照モードに設定する指示を受け付けると、撮像モードを過去画像参照モードに設定する。   When the user operates the mode setting button 35B, the operation receiving unit 65 receives an instruction to set the imaging mode to either the immediately preceding image reference mode or the past image reference mode. When receiving an instruction to set the previous image reference mode, the operation reception unit 65 sets the imaging mode to the previous image reference mode, and when receiving an instruction to set to the past image reference mode, the operation reception unit 65 sets the imaging mode to the past image reference mode. To do.

補助部69は、参照被写体領域抽出部71と、参照背景領域抽出部77と、対象被写体領域抽出部79と、対象背景領域抽出部85と、比較部87と、通知部93とを含む。   The auxiliary unit 69 includes a reference subject region extraction unit 71, a reference background region extraction unit 77, a target subject region extraction unit 79, a target background region extraction unit 85, a comparison unit 87, and a notification unit 93.

参照被写体領域抽出部71は、EEPROM25に記憶されている画像データ101から主要被写体が表された被写体領域を抽出する。参照被写体領域抽出部71は、撮像モードが直前画像参照モードに設定されている場合、EEPROM25に記憶されている画像データ101のうちから最後に記憶された画像データを参照画像に設定する。EEPROM25に最後に記憶された画像データは、直前に撮像されて記憶された画像データである。参照被写体領域抽出部71は、撮像モードが過去画像参照モードに設定されている場合、EEPROM25に記憶されている画像データ101のうちユーザにより選択される画像データを参照画像に設定する。   The reference subject area extraction unit 71 extracts a subject area in which the main subject is represented from the image data 101 stored in the EEPROM 25. When the imaging mode is set to the previous image reference mode, the reference subject region extraction unit 71 sets the image data stored last from the image data 101 stored in the EEPROM 25 as the reference image. The image data stored last in the EEPROM 25 is image data captured and stored immediately before. When the imaging mode is set to the past image reference mode, the reference subject region extraction unit 71 sets image data selected by the user from the image data 101 stored in the EEPROM 25 as a reference image.

参照被写体領域抽出部71は、参照顔領域検出部73と、参照被写体領域予測部75とを含む。参照顔領域検出部73は、参照画像から顔領域を検出する。顔領域を検出する方法は、色に基づき検出する方法と、形状に基づき検出する方法のいずれであってもよいし、それらを組み合わせてもよい。色に基づき検出する方法は、例えば、人の肌の色の範囲を予め定めておき、その範囲に含まれる色の画素の集合からなる領域を顔領域として検出する方法である。また、形状に基づき検出する方法は、人の顔の輪郭のパターンを複数種類準備しておき、そのパターンと一致するパターンの領域を顔領域として検出する方法である。参照顔領域検出部73は、参照画像から顔領域を検出すると、検出された顔領域を参照被写体領域予測部75に出力する。参照顔領域検出部73は、参照画像から複数の顔領域が検出される場合、複数の顔領域を参照被写体領域予測部75に出力する。   The reference subject region extraction unit 71 includes a reference face region detection unit 73 and a reference subject region prediction unit 75. The reference face area detection unit 73 detects a face area from the reference image. The method for detecting the face region may be either a method for detecting based on the color or a method for detecting based on the shape, or a combination thereof. The detection method based on the color is, for example, a method in which a human skin color range is determined in advance, and an area formed by a set of color pixels included in the range is detected as a face area. The method of detecting based on the shape is a method in which a plurality of types of contour patterns of a human face are prepared, and a pattern area that matches the pattern is detected as a face area. When detecting the face area from the reference image, the reference face area detection unit 73 outputs the detected face area to the reference subject area prediction unit 75. When a plurality of face regions are detected from the reference image, the reference face region detection unit 73 outputs the plurality of face regions to the reference subject region prediction unit 75.

参照被写体領域予測部75は、参照顔領域検出部73から入力される顔領域に基づいて、参照画像から参照被写体領域を抽出する。具体的には、参照被写体領域予測部75は、参照顔領域検出部73から入力される顔領域を含む矩形の領域を矩形顔領域として特定する。参照画像から複数の顔領域が検出される場合、複数の顔領域それぞれを含む複数の矩形顔領域を特定する。そして、参照被写体領域予測部75は、矩形顔領域を水平方向および垂直方向それぞれ所定の倍率に拡張した矩形の領域を参照被写体領域として抽出する。統計的に、人の肩幅は、顔の横幅の約3倍、人の背丈は、顔の縦方向の約7倍であることが知られている。ここでは、参照被写体領域予測部75は、矩形顔領域を左右方向にそれぞれ矩形顔領域と同じ横幅分拡張し、横幅分拡張後の領域を下方向に矩形顔領域の縦方向の7倍分拡張した領域を参照被写体領域として予測する。参照被写体領域予測部75は、参照顔領域検出部73から複数の顔領域が入力される場合、複数の顔領域それぞれに対応する複数の参照被写体領域を予測し、予測された複数の参照被写体領域のすべてを含む1つの矩形の領域を参照被写体領域として抽出する。参照被写体領域予測部75は、参照画像中の顔領域から予測した参照被写体領域を参照背景領域抽出部77に出力する。   The reference subject region prediction unit 75 extracts a reference subject region from the reference image based on the face region input from the reference face region detection unit 73. Specifically, the reference subject area prediction unit 75 specifies a rectangular area including the face area input from the reference face area detection unit 73 as a rectangular face area. When a plurality of face areas are detected from the reference image, a plurality of rectangular face areas including each of the plurality of face areas are specified. Then, the reference subject region prediction unit 75 extracts a rectangular region obtained by expanding the rectangular face region at a predetermined magnification in each of the horizontal direction and the vertical direction as a reference subject region. Statistically, it is known that the shoulder width of a person is about three times the width of the face and the height of the person is about seven times the vertical direction of the face. Here, the reference subject region prediction unit 75 expands the rectangular face region in the left-right direction by the same horizontal width as the rectangular face region, and expands the region expanded by the horizontal width downward by seven times the vertical direction of the rectangular face region. The determined area is predicted as a reference subject area. When a plurality of face regions are input from the reference face region detection unit 73, the reference subject region prediction unit 75 predicts a plurality of reference subject regions corresponding to each of the plurality of face regions, and the plurality of predicted reference subject regions Is extracted as a reference subject area. The reference subject region prediction unit 75 outputs the reference subject region predicted from the face region in the reference image to the reference background region extraction unit 77.

図3は、参照被写体領域の一例を示す図である。図3を参照して、参照被写体領域209は、第1参照被写体領域205と、第2参照被写体領域207とを含む。第1参照被写体領域205は、第1矩形顔領域201を含み、第2参照被写体領域207は、第2矩形顔領域203を含む。第1参照被写体領域205と第2参照被写体領域207とは、画像中の位置と大きさが異なるだけなので、ここでは第1参照被写体領域205について説明する。第1矩形顔領域201は、顔領域を含む矩形の領域として特定される。第1参照被写体領域205は、第1矩形顔領域201に基づいて特定される。具合的には、第1矩形顔領域201を左右方向にそれぞれ顔領域と同じ横幅分拡張し、横幅分拡張後の領域を下方向に顔領域の縦方向の7倍分拡張した矩形の領域が第1参照被写体領域205として特定される。そして、参照被写体領域209は、第1参照被写体領域205および第2参照被写体領域207を含む矩形の領域として特定される。   FIG. 3 is a diagram illustrating an example of the reference subject area. Referring to FIG. 3, reference subject area 209 includes a first reference subject area 205 and a second reference subject area 207. The first reference subject area 205 includes a first rectangular face area 201, and the second reference subject area 207 includes a second rectangular face area 203. Since the first reference subject region 205 and the second reference subject region 207 are only different in position and size in the image, only the first reference subject region 205 will be described here. The first rectangular face area 201 is specified as a rectangular area including the face area. The first reference subject area 205 is specified based on the first rectangular face area 201. Specifically, a rectangular area is obtained by expanding the first rectangular face area 201 in the left-right direction by the same horizontal width as the face area, and extending the expanded area by a horizontal width by seven times the vertical direction of the face area. It is specified as the first reference subject area 205. The reference subject area 209 is specified as a rectangular area including the first reference subject area 205 and the second reference subject area 207.

参照背景領域抽出部77は、参照画像から参照被写体領域を除いた領域を参照背景領域として抽出し、抽出された参照背景領域を比較部87および通知部93に出力する。   The reference background region extraction unit 77 extracts a region obtained by removing the reference subject region from the reference image as a reference background region, and outputs the extracted reference background region to the comparison unit 87 and the notification unit 93.

対象被写体領域抽出部79は、撮像制御部61から入力される画像データを対象画像とし、対象画像から対象被写体領域を抽出する。撮像制御部61は、イメージセンサ19が所定時間間隔で出力する画像データを対象被写体領域抽出部79および表示制御部63に出力するので、表示制御部63がLCD23に表示する画像データと同じ画像データが対象被写体領域抽出部79に入力される。対象被写体領域抽出部79は、撮像制御部61から所定時間間隔で入力される画像データそれぞれを対象画像としてもよいが、撮像制御部61から所定時間間隔で入力される画像データのうちから間引いた画像データを参照画像としても良い。   The target subject region extraction unit 79 uses the image data input from the imaging control unit 61 as a target image, and extracts the target subject region from the target image. Since the imaging control unit 61 outputs the image data output by the image sensor 19 at predetermined time intervals to the target subject region extraction unit 79 and the display control unit 63, the same image data as the image data displayed on the LCD 23 by the display control unit 63. Is input to the target subject region extraction unit 79. The target subject region extraction unit 79 may use each of the image data input from the imaging control unit 61 at a predetermined time interval as a target image. However, the target subject region extraction unit 79 thins out the image data input from the imaging control unit 61 at a predetermined time interval. Image data may be used as a reference image.

対象被写体領域抽出部79は、対象顔領域検出部81と、対象被写体領域予測部83とを含む。対象顔領域検出部81は、対象画像から顔領域を検出する。対象画像に複数の顔領域が含まれる場合、複数の顔領域を検出する。対象顔領域検出部81は、特定された顔領域を対象被写体領域予測部83に出力する。   The target subject area extraction unit 79 includes a target face area detection unit 81 and a target subject area prediction unit 83. The target face area detection unit 81 detects a face area from the target image. When the target image includes a plurality of face areas, the plurality of face areas are detected. The target face area detection unit 81 outputs the specified face area to the target subject area prediction unit 83.

対象被写体領域予測部83は、対象顔領域検出部81によって検出された顔領域に基づいて、対象画像から対象被写体領域を抽出し、抽出された対象被写体領域を対象背景領域抽出部85に出力する。なお、対象被写体領域予測部83は、参照被写体領域予測部75が参照画像から参照被写体領域を抽出する処理と、処理対象とする画像が異なるのみなので、ここでは説明を繰り返さない。   The target subject region prediction unit 83 extracts a target subject region from the target image based on the face region detected by the target face region detection unit 81, and outputs the extracted target subject region to the target background region extraction unit 85. . Note that the target subject region prediction unit 83 is different from the processing in which the reference subject region prediction unit 75 extracts the reference subject region from the reference image and the image to be processed, and therefore, description thereof will not be repeated here.

対象背景領域抽出部85は、対象画像から対象被写体領域を除いた領域を対象背景領域として抽出し、抽出された対象背景領域を比較部87に出力する。   The target background region extraction unit 85 extracts a region obtained by removing the target subject region from the target image as a target background region, and outputs the extracted target background region to the comparison unit 87.

比較部87は、参照背景領域抽出部77から入力された参照背景領域と対象背景領域抽出部85から入力された対象背景領域とを比較する。比較部87は、動きベクトル決定部89と、判定部91とを含む。   The comparison unit 87 compares the reference background region input from the reference background region extraction unit 77 with the target background region input from the target background region extraction unit 85. The comparison unit 87 includes a motion vector determination unit 89 and a determination unit 91.

動きベクトル決定部89は、参照背景領域と対象背景領域とから動きベクトルを算出し、算出された動きベクトルを判定部91に出力する。動きベクトル決定部89の詳細は後述するが、動きベクトルは、参照背景領域と対象背景領域とのずれ量と、そのずれの方向とを示す。   The motion vector determination unit 89 calculates a motion vector from the reference background region and the target background region, and outputs the calculated motion vector to the determination unit 91. Although details of the motion vector determination unit 89 will be described later, the motion vector indicates a shift amount between the reference background region and the target background region and a direction of the shift.

判定部91は、動きベクトル決定部89から入力される動きベクトルに基づいて、参照背景領域と対象背景領域とが一致するか否かを判定する。具体的には、判定部91は、動きベクトルのスカラー量を所定のしきい値と比較し、スカラー量が所定のしきい値以下ならば、背景が一致していると判定し、スカラー量が所定のしきい値より大きければ、背景が一致していないと判定する。判定部91は、背景が一致していると判定する場合、一致信号を通知部93に出力し、背景が一致していないと判定する場合、不一致信号と動きベクトルとを通知部93に出力する。   The determination unit 91 determines whether the reference background region and the target background region match based on the motion vector input from the motion vector determination unit 89. Specifically, the determination unit 91 compares the scalar quantity of the motion vector with a predetermined threshold value. If the scalar quantity is equal to or smaller than the predetermined threshold value, the determination unit 91 determines that the backgrounds match and the scalar quantity is If it is larger than the predetermined threshold, it is determined that the backgrounds do not match. The determination unit 91 outputs a coincidence signal to the notification unit 93 when determining that the backgrounds match, and outputs a mismatch signal and a motion vector to the notification unit 93 when determining that the backgrounds do not match. .

通知部93は、判定部91から一致信号または不一致信号が入力され、不一致信号が入力される場合には動きベクトルが入力される。通知部93は、透過画像生成部95と、音発生部97と、メッセージ生成部99とを含む。透過画像生成部95は、参照背景領域抽出部77から参照背景領域が入力される。透過画像生成部95は、判定部91から不一致信号が入力される場合、不一致信号とともに入力される動きベクトルのスカラー量に応じた透過率を決定し、決定された透過率で参照画像の参照背景領域を透明化処理した透過画像を生成する。透過画像生成部95は、生成された透過画像を表示制御部63に出力する。表示制御部63は、透過画像生成部95から透過画像が入力される場合、撮像制御部61から入力される画像データに透過画像を合成した画像をLCD23に表示する。   The notification unit 93 receives a match signal or a mismatch signal from the determination unit 91, and receives a motion vector when a mismatch signal is input. The notification unit 93 includes a transmission image generation unit 95, a sound generation unit 97, and a message generation unit 99. The transparent image generation unit 95 receives the reference background region from the reference background region extraction unit 77. When a mismatch signal is input from the determination unit 91, the transmission image generation unit 95 determines a transmittance according to the scalar quantity of the motion vector input together with the mismatch signal, and the reference background of the reference image is determined with the determined transmittance. A transparent image in which the region is transparentized is generated. The transmission image generation unit 95 outputs the generated transmission image to the display control unit 63. When the transmission image is input from the transmission image generation unit 95, the display control unit 63 displays an image obtained by combining the transmission image with the image data input from the imaging control unit 61 on the LCD 23.

ここで、透過率は、画素の輝度値を上げる度合いを示し、動きベクトルのスカラー量と反比例する。動きベクトルのスカラー量が大きいほど透過率は低くなり、動きベクトルのスカラー量が小さいほど透過率は高くなる。   Here, the transmittance indicates the degree of increasing the luminance value of the pixel, and is inversely proportional to the scalar quantity of the motion vector. The greater the scalar quantity of the motion vector, the lower the transmittance, and the smaller the motion vector scalar quantity, the higher the transmittance.

参照画像は、撮像モードが直前画像参照モードに設定されている場合は直前に撮像された画像であり、撮像モードが過去画像参照モードに設定されている場合はユーザにより指定された画像である。一方、対象画像は、LCD23に表示されているスルー画像と同じである。このため、撮像モードが直前画像参照モードに設定されている場合は直前に撮像された画像の背景領域の透過画像が、スルー画像に合成して表示される。さらに、直前に撮像された画像の背景領域と、スルー画像の背景領域とのずれ量が大きいほど、直前に撮像された画像の背景領域が濃く、はっきりと表示され、スルー画像の背景領域とのずれ量が小さいほど直前に撮像された画像の背景領域が薄く表示される。このため、デジタルスチルカメラ1を操作するユーザは、スルー画像と、透過画像とを同時に見ることができ、2つの画像のずれ量を確認することができる。したがって、ユーザがスルー画像が透過画像と一致するまで撮像範囲を変化させる操作が容易になる。また、ずれ量に応じて参照画像の透過率が変化するので、ずれ量を参照画像の輝度で通知することができる。   The reference image is an image captured immediately before when the imaging mode is set to the previous image reference mode, and is an image specified by the user when the imaging mode is set to the past image reference mode. On the other hand, the target image is the same as the through image displayed on the LCD 23. For this reason, when the imaging mode is set to the immediately preceding image reference mode, the transparent image of the background area of the image captured immediately before is combined with the through image and displayed. Furthermore, as the amount of deviation between the background area of the image captured immediately before and the background area of the through image increases, the background area of the image captured immediately before is darker and clearly displayed. The smaller the deviation amount, the lighter the background area of the image captured immediately before. For this reason, the user who operates the digital still camera 1 can view the through image and the transparent image at the same time, and can confirm the shift amount between the two images. Therefore, the user can easily change the imaging range until the through image matches the transmission image. Further, since the transmittance of the reference image changes according to the shift amount, the shift amount can be notified by the luminance of the reference image.

音発生部97は、判定部91から一致信号が入力される場合と不一致信号が入力される場合とで、異なる音を発生する。音発生部97は、判定部91から一致信号が入力される場合、第1の音をスピーカ31に発生させ、不一致信号が入力されると、第2の音をスピーカ31に発生させる。第1の音と第2の音とは、周波数が異なってもよいし、発生する時間が異なってもよいし、所定時間に発生する回数が異なってもよい。これにより、第1の音を聞くユーザは、これから撮像しようとする画像の背景が参照画像の背景と一致していることを知ることができ、第2の音を聞くユーザは、これから撮像しようとする画像の背景が参照画像の背景と一致していないことを知ることができる。   The sound generation unit 97 generates different sounds depending on whether the coincidence signal is input from the determination unit 91 or the disagreement signal is input. The sound generator 97 generates a first sound to the speaker 31 when a coincidence signal is input from the determination unit 91, and causes the speaker 31 to generate a second sound when a disagreement signal is input. The first sound and the second sound may have different frequencies, may be generated at different times, or may be generated at different times. As a result, the user who hears the first sound can know that the background of the image to be captured is coincident with the background of the reference image, and the user who hears the second sound is about to capture the image. It can be known that the background of the image to be executed does not match the background of the reference image.

メッセージ生成部99は、判定部91から一致信号が入力されると、背景が一致していることを示す第1のメッセージを生成し、生成された第1のメッセージを表示制御部63に出力する。メッセージ生成部99は、判定部91から不一致信号が入力されると、背景が不一致であることを示す第2のメッセージを生成し、生成された第2のメッセージを表示制御部63に出力する。表示制御部63は、第1のメッセージまたは第2のメッセージが入力されると、第1のメッセージまたは第2のメッセージをLCD23に表示する。   When the coincidence signal is input from the determination unit 91, the message generation unit 99 generates a first message indicating that the backgrounds match, and outputs the generated first message to the display control unit 63. . When the mismatch signal is input from the determination unit 91, the message generation unit 99 generates a second message indicating that the backgrounds do not match, and outputs the generated second message to the display control unit 63. When the first message or the second message is input, the display control unit 63 displays the first message or the second message on the LCD 23.

次に動きベクトル決定部89について説明する。動きベクトル決定部89は、代表点マッチング法を用いて動きベクトルを決定する。代表点マッチング法とは、参照背景領域中の固定の複数の代表点の画素値と、対象背景領域中の代表点を含む検出エリア内のサンプリング点の画素値とを比較し、その差がもっとも少ない相関性の高いサンプリング点を求め、このサンプリング点と代表点との位置の差(偏移)を動きベクトルとして特定するものである。   Next, the motion vector determination unit 89 will be described. The motion vector determination unit 89 determines a motion vector using a representative point matching method. The representative point matching method compares the pixel values of a plurality of fixed representative points in the reference background region with the pixel values of the sampling points in the detection area including the representative points in the target background region, and the difference is the largest. A sampling point with few correlations is obtained, and a position difference (deviation) between the sampling point and the representative point is specified as a motion vector.

代表点マッチング法を具体的に説明する。図4は、撮像エリアの一例を示す図である。図4を参照して、撮像エリアは所定範囲の映像エリアが形成されており、この映像エリア内には、4個の検出ブロックA、B、CおよびDが設けられている。さらに、検出ブロックA〜Dそれぞれは、16個の検出エリアに区分されている。   The representative point matching method will be specifically described. FIG. 4 is a diagram illustrating an example of an imaging area. Referring to FIG. 4, a predetermined range of video area is formed in the imaging area, and four detection blocks A, B, C, and D are provided in this video area. Further, each of the detection blocks A to D is divided into 16 detection areas.

図5は、検出エリアの一例を示す図である。図5を参照して、検出エリアには、複数のサンプリング点が存在し、複数のサンプリング点のうちの1つが代表点として定められている。   FIG. 5 is a diagram illustrating an example of the detection area. Referring to FIG. 5, there are a plurality of sampling points in the detection area, and one of the plurality of sampling points is defined as a representative point.

図6は、動きベクトル決定部の詳細な構成の一例を示す図である。図6を参照して、動きベクトル決定部89は、相関値演算部121と、累積加算部122と、最小値検出部123と、平均値算出部124と、動きベクトル発生部125とを含む。   FIG. 6 is a diagram illustrating an example of a detailed configuration of the motion vector determination unit. Referring to FIG. 6, motion vector determination unit 89 includes a correlation value calculation unit 121, a cumulative addition unit 122, a minimum value detection unit 123, an average value calculation unit 124, and a motion vector generation unit 125.

対象背景領域および参照背景領域は、相関値演算部121に入力される。相関値演算部121は、対象背景領域の画素値と参照背景領域の画素値との差の絶対値、すなわち代表点と検出エリア内における代表点に対して偏移したサンプリング点との画素の相関値を演算する。相関値演算部121は、累積加算部122において、検出ブロック内の代表点に対して同一偏移を有するサンプリング点ごとに相関値を累積加算する。相関値演算部121は、この累積加算を4個の検出ブロックごとに行う。   The target background area and the reference background area are input to the correlation value calculation unit 121. The correlation value calculation unit 121 calculates the absolute value of the difference between the pixel value of the target background area and the pixel value of the reference background area, that is, the correlation between the representative point and the sampling point shifted from the representative point in the detection area Calculate the value. Correlation value calculation section 121 cumulatively adds correlation values for each sampling point having the same deviation with respect to the representative points in the detection block in cumulative addition section 122. The correlation value calculation unit 121 performs this cumulative addition every four detection blocks.

累積加算部122は、検出ブロックごとサンプリング点ごとに累積加算した相関値を相関累積値として、最小値検出部123および平均値算出部124に出力する。最小値検出部123は、相関累積値が最小のサンプリング点の位置およびその最小値を検出する。また、平均値算出部124は、相関累積値の平均を算出する。そして、求められた最小位置、最小値及び平均値は、動きベクトル発生部125に入力される。   The cumulative addition unit 122 outputs the correlation value obtained by cumulative addition for each sampling point for each detection block to the minimum value detection unit 123 and the average value calculation unit 124 as a correlation cumulative value. The minimum value detection unit 123 detects the position of the sampling point having the minimum correlation accumulated value and the minimum value thereof. Further, the average value calculation unit 124 calculates the average of the accumulated correlation values. Then, the obtained minimum position, minimum value, and average value are input to the motion vector generation unit 125.

動きベクトル発生部125は各検出ブロック内の相関累積値の最小値が所定のしきい値よりも大きい検出ブロックおよび最小値/平均値が所定のしきい値よりも小さい検出ブロックから検出された動きベクトルを信頼性の低いものとして除去し、残りのものから1個の動きベクトルを特定する。   The motion vector generation unit 125 detects motion detected from a detection block in which the minimum correlation accumulated value in each detection block is larger than a predetermined threshold and a detection block in which the minimum value / average value is smaller than the predetermined threshold. Remove the vector as unreliable and identify one motion vector from the rest.

図7は、第1の実施の形態における撮像処理の流れの一例を示すフローチャートである。撮像処理は、制御部11がEEPROM25に記憶された撮像支援プログラムを実行することにより、制御部11により実行される処理である。図7を参照して、制御部11は、設定されている撮像モードによって処理を分岐する(ステップS01)。撮像モードが直前画像参照モードに設定されているならば、処理をステップS02に進めるが、撮像モードが過去画像参照モードに設定されているならば、処理をステップS03に進める。   FIG. 7 is a flowchart illustrating an example of a flow of imaging processing according to the first embodiment. The imaging process is a process executed by the control unit 11 when the control unit 11 executes an imaging support program stored in the EEPROM 25. Referring to FIG. 7, control unit 11 branches the process depending on the set imaging mode (step S01). If the imaging mode is set to the previous image reference mode, the process proceeds to step S02. If the imaging mode is set to the past image reference mode, the process proceeds to step S03.

ステップS02においては、直前に撮像された画像を取得し、処理をステップS06に進める。EEPROM25に記憶されている画像データ101のうち最後に記憶された画像データを取得する。   In step S02, the image captured immediately before is acquired, and the process proceeds to step S06. The image data stored last in the image data 101 stored in the EEPROM 25 is acquired.

ステップS03においては、EEPROM25に記憶されている画像データ101のファイル名一覧をLCD23に表示する。次のステップS04においては、ファイル名を選択する指示を受け付けるまで待機状態となり(ステップS04でNO)、ファイル名を選択する指示を受け付けると(ステップS04でYES)、処理をステップS05に進める。ステップS05においては、ステップS04において選択されたファイル名で特定される画像データを取得し、処理をステップS06に進める。   In step S03, a list of file names of the image data 101 stored in the EEPROM 25 is displayed on the LCD 23. In the next step S04, the process waits until an instruction to select a file name is accepted (NO in step S04). When an instruction to select a file name is accepted (YES in step S04), the process proceeds to step S05. In step S05, image data specified by the file name selected in step S04 is acquired, and the process proceeds to step S06.

ステップS06においては、処理がステップS02から進む場合、ステップS02において取得された画像データを参照画像に設定する。一方、処理がステップS05から進む場合、ステップS04においてユーザにより選択された画像データを参照画像に設定する。そして、ステップS06において設定された参照画像から顔領域を検出し(ステップS07)、検出された顔領域に基づいて参照画像のうちで主要被写体が表された参照被写体領域を予測する(ステップS08)。そして、参照画像のうちからステップS08において予測された参照被写体領域を除いた領域を参照背景領域として抽出する(ステップS09)。   In step S06, when the process proceeds from step S02, the image data acquired in step S02 is set as a reference image. On the other hand, when the process proceeds from step S05, the image data selected by the user in step S04 is set as a reference image. Then, a face area is detected from the reference image set in step S06 (step S07), and a reference subject area in which the main subject is represented in the reference image is predicted based on the detected face area (step S08). . Then, an area excluding the reference subject area predicted in step S08 is extracted as a reference background area from the reference image (step S09).

ステップS10においては、対象画像を取得し、処理をステップS11に進める。イメージセンサ19が所定時間間隔で出力する画像データを対象画像として設定する。そして、取得された対象画像から顔領域を検出し(ステップS11)、検出された顔領域に基づいて対象画像のうちで主要被写体が表された対照被写体領域を予測する(ステップS12)。そして、対象画像うちからステップS12において予測された対象被写体領域を除いた領域を対象背景領域として抽出する(ステップS13)。   In step S10, the target image is acquired, and the process proceeds to step S11. Image data output by the image sensor 19 at predetermined time intervals is set as a target image. Then, a face area is detected from the acquired target image (step S11), and a control subject area in which the main subject is represented in the target image is predicted based on the detected face area (step S12). Then, a region excluding the target subject region predicted in step S12 from the target image is extracted as a target background region (step S13).

ステップS14においては、動きベクトル算出処理を実行し、処理をステップS15に進める。動きベクトル算出処理は、上述した代表点マッチング法でステップS08において抽出された参照背景領域と、ステップS12において抽出された対象背景領域とから動きベクトルを算出する処理である。   In step S14, a motion vector calculation process is executed, and the process proceeds to step S15. The motion vector calculation process is a process of calculating a motion vector from the reference background region extracted in step S08 by the representative point matching method described above and the target background region extracted in step S12.

ステップS15においては、ステップS14において算出された動きベクトルのスカラー量がしきい値T1以下であるか否かを判断する。動きベクトルのスカラー量がしきい値T1以下ならば処理をステップS16に進めるが、そうでなければ処理をステップS18に進める。   In step S15, it is determined whether or not the scalar quantity of the motion vector calculated in step S14 is equal to or less than a threshold value T1. If the scalar quantity of the motion vector is equal to or smaller than threshold value T1, the process proceeds to step S16; otherwise, the process proceeds to step S18.

ステップS16においては、背景が一致していることを示す第1のメッセージを生成し、生成された第1のメッセージをLCD23に表示する。次のステップS17においては、第1の音をスピーカ31に発生させ、処理をステップS23に進める。   In step S16, a first message indicating that the backgrounds match is generated, and the generated first message is displayed on the LCD 23. In the next step S17, the first sound is generated in the speaker 31, and the process proceeds to step S23.

ステップS18においては、背景が不一致であることを示す第2のメッセージを生成し、生成された第2のメッセージをLCD23に表示する。次のステップS19においては、第2の音をスピーカ31に発生させる。第2の音は、第1の音と周波数が異なる。   In step S 18, a second message indicating that the backgrounds do not match is generated, and the generated second message is displayed on the LCD 23. In the next step S19, the speaker 31 is caused to generate the second sound. The second sound is different in frequency from the first sound.

ステップS20においては、ステップS14において算出された動きベクトルのスカラー量に基づいて透過率U1を算出する。そして、算出された透過率U1を用いて、ステップS09において抽出された参照背景領域から透過画像を生成し(ステップS21)、生成された透過画像をスルー画像に重畳してLCD23に表示し(ステップS22)、処理をステップS23に進める。   In step S20, the transmittance U1 is calculated based on the scalar quantity of the motion vector calculated in step S14. Then, using the calculated transmittance U1, a transmission image is generated from the reference background region extracted in step S09 (step S21), and the generated transmission image is superimposed on the through image and displayed on the LCD 23 (step S21). S22), the process proceeds to step S23.

ステップS23においては、シャッタボタン35Aが全押しされたか否かを判断する。シャッタボタン35Aが全押しされたならば処理をステップS24に進めるが、そうでなければ処理をステップS10に戻す。   In step S23, it is determined whether or not the shutter button 35A is fully pressed. If shutter button 35A is fully pressed, the process proceeds to step S24; otherwise, the process returns to step S10.

ステップS24においては、静止画を撮像する。次のステップS25においては、決定ボタンが押下されたか否かを判断する。決定ボタンが押下されたならば処理をステップS26に進めるが、そうでなければ処理をステップS10に戻す。ステップS26においては、ステップS23において撮像された静止画を圧縮し、EEPROM25に記憶する。次のステップS27においては、撮像の終了指示を受け付けたか否かを判断する。撮像の終了指示を受け付けたならば、撮像処理を終了するが、そうでなければ処理をステップS01に戻す。   In step S24, a still image is captured. In the next step S25, it is determined whether or not the enter button has been pressed. If the determination button is pressed, the process proceeds to step S26. If not, the process returns to step S10. In step S26, the still image captured in step S23 is compressed and stored in the EEPROM 25. In the next step S27, it is determined whether an imaging end instruction has been accepted. If an imaging end instruction is accepted, the imaging process ends. If not, the process returns to step S01.

<変形例>
第1の実施の形態におけるデジタルスチルカメラ1は、対象画像の背景領域と参照画像の背景領域とのずれ量を検出するために、代表点マッチング法を利用して動きベクトルを算出するようにした。変形例におけるデジタルスチルカメラ1は、比較部87を比較部87Aに変更して、代表点マッチング法とは異なる方法で動きベクトルを算出するようにしたものである。以下、第1の実施の形態におけるデジタルスチルカメラ1と異なる部分を主に説明する。
<Modification>
The digital still camera 1 according to the first embodiment calculates a motion vector using a representative point matching method in order to detect a shift amount between the background region of the target image and the background region of the reference image. . In the digital still camera 1 according to the modified example, the comparison unit 87 is changed to the comparison unit 87A, and the motion vector is calculated by a method different from the representative point matching method. In the following, the differences from the digital still camera 1 in the first embodiment will be mainly described.

図8は、変形例における比較部の構成の一例を示す図である。図8を参照して、比較部87Aは、対象特徴点抽出部111と、参照特徴点抽出部113と、動きベクトル決定部89Aと、判定部91と、を含む。なお、図2に示した機能と同一の機能には同じ符号を付し、ここでは説明を繰り返さない。   FIG. 8 is a diagram illustrating an example of the configuration of the comparison unit in the modification. Referring to FIG. 8, comparison unit 87A includes target feature point extraction unit 111, reference feature point extraction unit 113, motion vector determination unit 89A, and determination unit 91. The same functions as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof will not be repeated here.

対象特徴点抽出部111は、対象背景領域における特徴点を対象特徴点として抽出し、抽出された対象特徴点を動きベクトル決定部89Aに出力する。特徴点は、画像中で特徴的な形状または色を有する点であり、例えば、画素値が所定の値以上の画素、画像中に占める割合が所定の値以下の色を有する画素、特徴的な形状、例えば、輪郭線等を構成する画素である。なお、特徴点は、1つの画素に限らず、同じ特徴を有する複数の画素の集合からなる特徴領域としてもよい。さらに、特徴点は、画像中の1つに限らず、複数を抽出するのが好ましい。対象特徴点抽出部111は、対象背景領域抽出部85から入力された対象背景領域に存在する特徴点を対象特徴点として抽出し、抽出された対象特徴点を参照特徴点抽出部113および動きベクトル決定部89Aに出力する。   The target feature point extraction unit 111 extracts feature points in the target background region as target feature points, and outputs the extracted target feature points to the motion vector determination unit 89A. A feature point is a point having a characteristic shape or color in an image, for example, a pixel having a pixel value equal to or greater than a predetermined value, a pixel having a color whose proportion in the image is equal to or less than a predetermined value, It is a pixel that forms a shape, for example, a contour line. Note that the feature point is not limited to one pixel, and may be a feature region including a set of a plurality of pixels having the same feature. Furthermore, it is preferable to extract not only one feature point but also a plurality of feature points. The target feature point extraction unit 111 extracts a feature point existing in the target background region input from the target background region extraction unit 85 as a target feature point, and uses the extracted target feature point as a reference feature point extraction unit 113 and a motion vector. It outputs to the determination part 89A.

参照特徴点抽出部113は、参照背景領域抽出部77から参照背景領域が入力され、対象特徴点抽出部111から対象特徴点が入力される。参照特徴点抽出部113は、対象特徴点と同じ特徴を有する特徴点を参照特徴点として参照背景領域から抽出し、抽出された参照特徴点を動きベクトル決定部89Aに出力する。   The reference feature point extraction unit 113 receives the reference background region from the reference background region extraction unit 77 and the target feature point from the target feature point extraction unit 111. The reference feature point extraction unit 113 extracts a feature point having the same feature as the target feature point as a reference feature point from the reference background region, and outputs the extracted reference feature point to the motion vector determination unit 89A.

動きベクトル決定部89Aは、対象特徴点抽出部111から対象特徴点が入力され、参照特徴点抽出部113から参照特徴点が入力される。動きベクトル決定部89Aは、対象特徴点から参照特徴点に向かう動きベクトルを算出し、算出された動きベクトルを判定部91に出力する。   The motion vector determination unit 89 </ b> A receives the target feature point from the target feature point extraction unit 111 and the reference feature point from the reference feature point extraction unit 113. The motion vector determination unit 89A calculates a motion vector from the target feature point toward the reference feature point, and outputs the calculated motion vector to the determination unit 91.

図9は、第1の実施の形態の変形例における動きベクトル算出処理の流れの一例を示したフローチャートである。動きベクトル算出処理は、図7に示したステップS14において実行される処理である。図9を参照して、ステップS31においては、図7のステップS13において抽出された対象背景領域から対象特徴点を抽出する。   FIG. 9 is a flowchart showing an example of the flow of motion vector calculation processing in the modification of the first embodiment. The motion vector calculation process is a process executed in step S14 shown in FIG. Referring to FIG. 9, in step S31, target feature points are extracted from the target background area extracted in step S13 of FIG.

次のステップS32においては、図7のステップS09において抽出された参照背景領域からステップS31において抽出された対象特徴点と同じ特徴を有する特徴点を参照特徴点として抽出する。ステップS33においては、ステップS31において抽出された対象特徴点からステップS32において抽出された参照特徴点へ向かう動きベクトルを算出し、処理を終了する。   In the next step S32, a feature point having the same feature as the target feature point extracted in step S31 is extracted as a reference feature point from the reference background region extracted in step S09 in FIG. In step S33, a motion vector from the target feature point extracted in step S31 toward the reference feature point extracted in step S32 is calculated, and the process ends.

<第2の実施の形態>
第1の実施の形態におけるデジタルスチルカメラ1は、動きベクトルを算出して、対象画像の背景と参照画像の背景とが一致しているか否かを判断するようにした。第2の実施の形態におけるデジタルスチルカメラ1は、2つの画像の差分に基づいて、2つの画像の背景が一致しているか否かを判断するようにしたものである。以下、第1の実施の形態におけるデジタルスチルカメラ1と異なる部分を主に説明する。
<Second Embodiment>
The digital still camera 1 in the first embodiment calculates a motion vector and determines whether or not the background of the target image matches the background of the reference image. The digital still camera 1 according to the second embodiment is configured to determine whether the backgrounds of the two images match based on the difference between the two images. In the following, the differences from the digital still camera 1 in the first embodiment will be mainly described.

図10は、第2の実施の形態におけるデジタルスチルカメラが備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示す機能ブロック図である。図10を参照して、図2に示す機能ブロック図と異なる点は、比較部87が比較部87Bに変更された点、透過画像生成部95が透過画像生成部95Aに変更された点である。その他の機能は図2に示した機能と同じなのでここでは説明を繰り返さない。   FIG. 10 is a functional block diagram illustrating an example of an outline of functions of a control unit included in the digital still camera according to the second embodiment, together with data stored in the EEPROM. Referring to FIG. 10, the difference from the functional block diagram shown in FIG. 2 is that comparison unit 87 is changed to comparison unit 87B, and transmission image generation unit 95 is changed to transmission image generation unit 95A. . The other functions are the same as those shown in FIG. 2, and therefore description thereof will not be repeated here.

比較部87Bは、背景差分算出部115と、判定部91Aとを含む。背景差分算出部115は、対象被写体領域予測部83から対象被写体領域が入力され、対象背景領域抽出部85から対象背景領域が入力され、参照被写体領域予測部75から参照被写体領域が入力され、参照背景領域抽出部77から参照背景領域が入力される。背景差分算出部115は、参照背景領域から対象被写体領域を除いた参照背景差分領域を抽出し、対象背景領域から参照被写体領域を除いた対象背景差分領域を抽出する。参照背景差分領域は、参照画像のうち参照被写体領域および対象被写体領域のいずれでもない領域である。対象背景差分領域は、対象画像のうち参照被写体領域および対象被写体領域のいずれでもない領域である。背景差分算出部115は、参照背景差分領域と対象背景差分領域との差分D1を算出し、算出された差分D1を判定部91Aに出力する。   Comparison unit 87B includes a background difference calculation unit 115 and a determination unit 91A. The background difference calculation unit 115 receives the target subject region from the target subject region prediction unit 83, receives the target background region from the target background region extraction unit 85, receives the reference subject region from the reference subject region prediction unit 75, and references A reference background area is input from the background area extraction unit 77. The background difference calculation unit 115 extracts a reference background difference area obtained by removing the target subject area from the reference background area, and extracts a target background difference area obtained by removing the reference subject area from the target background area. The reference background difference area is an area that is neither the reference subject area nor the target subject area in the reference image. The target background difference area is an area that is neither the reference subject area nor the target subject area in the target image. The background difference calculation unit 115 calculates a difference D1 between the reference background difference region and the target background difference region, and outputs the calculated difference D1 to the determination unit 91A.

判定部91Aは、背景差分算出部115から入力される差分D1を所定のしきい値T2と比較し、差分D1が所定のしきい値T2以下ならば、背景が一致していると判定し、差分D1が所定のしきい値T2より大きければ、背景が一致していないと判定する。判定部91Aは、背景が一致していると判定する場合、一致信号を通知部93に出力し、背景が一致していないと判定する場合、不一致信号と差分とを通知部93に出力する。   The determination unit 91A compares the difference D1 input from the background difference calculation unit 115 with a predetermined threshold T2, and determines that the backgrounds match if the difference D1 is equal to or less than the predetermined threshold T2. If the difference D1 is greater than a predetermined threshold value T2, it is determined that the backgrounds do not match. When determining that the backgrounds match, the determination unit 91 </ b> A outputs a match signal to the notification unit 93, and when determining that the backgrounds do not match, the determination unit 91 </ b> A outputs a mismatch signal and a difference to the notification unit 93.

透過画像生成部95Aは、参照背景領域抽出部77から参照背景領域が入力される。透過画像生成部95Aは、判定部91Aから不一致信号が入力される場合、不一致信号とともに入力される差分に応じた透過率を決定し、決定された透過率で参照画像の参照背景領域を透明化処理した透過画像を生成する。透過画像生成部95Aは、生成された透過画像を表示制御部63に出力する。表示制御部63は、透過画像生成部95Aから透過画像が入力される場合、撮像制御部61から入力される画像データの画像に透過画像を合成した画像をLCD23に表示する。   The transparent image generation unit 95A receives the reference background region from the reference background region extraction unit 77. When a mismatch signal is input from the determination unit 91A, the transmission image generation unit 95A determines a transmittance according to the difference input together with the mismatch signal, and transparentizes the reference background region of the reference image with the determined transmittance. A processed transmission image is generated. The transmission image generation unit 95A outputs the generated transmission image to the display control unit 63. When a transmission image is input from the transmission image generation unit 95A, the display control unit 63 displays on the LCD 23 an image obtained by combining the transmission image with the image of the image data input from the imaging control unit 61.

図11は、第2の実施の形態における撮像処理の流れの一例を示すフローチャートである。撮像処理は、制御部11AがEEPROM25に記憶された撮像支援プログラムを実行することにより、制御部11Aにより実行される処理である。図11を参照して、図7に示した撮像処理と異なる点は、ステップS14がステップS41〜ステップS43に置き換えられた点、ステップS15がステップS15Aに変更された点およびステップS20がステップS20Aに変更された点である。その他の処理は、図7に示した処理と同じなのでここでは説明を繰り返さない。   FIG. 11 is a flowchart illustrating an example of a flow of imaging processing according to the second embodiment. The imaging process is a process executed by the control unit 11A when the control unit 11A executes an imaging support program stored in the EEPROM 25. Referring to FIG. 11, the difference from the imaging processing shown in FIG. 7 is that step S14 is replaced by steps S41 to S43, step S15 is changed to step S15A, and step S20 is changed to step S20A. It is a changed point. Other processing is the same as the processing shown in FIG. 7, and therefore description thereof will not be repeated here.

ステップS41においては、ステップS09において抽出された参照背景領域からステップS12において予測された対象被写体領域を除いた領域を参照背景差分領域として抽出する。次のステップS42においては、ステップS13において抽出された対象背景領域からステップS08において予測された参照被写体領域を除いた領域を対象背景差分領域として抽出する。そして、ステップS41において抽出された参照背景差分領域とステップS42において抽出された対象背景差分領域の差分D2を算出する(ステップS43)。   In step S41, an area obtained by removing the target subject area predicted in step S12 from the reference background area extracted in step S09 is extracted as a reference background difference area. In the next step S42, an area obtained by removing the reference subject area predicted in step S08 from the target background area extracted in step S13 is extracted as the target background difference area. Then, a difference D2 between the reference background difference area extracted in step S41 and the target background difference area extracted in step S42 is calculated (step S43).

次のステップS15Aにおいては、ステップS43において算出された差分D1がしきい値T2以下であるか否かを判断する。差分D1がしきい値T2以下ならば処理をステップS16に進めるが、そうでなければ処理をステップS18に進める。   In the next step S15A, it is determined whether or not the difference D1 calculated in step S43 is equal to or less than a threshold value T2. If difference D1 is equal to or smaller than threshold value T2, the process proceeds to step S16; otherwise, the process proceeds to step S18.

ステップS20Aにおいては、ステップS43において算出された差分D1に基づいて透過率U2を算出する。そして、算出された透過率U2を用いて、ステップS41において抽出された参照背景差分領域から透過画像を生成し(ステップS21)、生成された透過画像をスルー画像に重畳してLCD23に表示し(ステップS22)、処理をステップS23に進める。   In step S20A, the transmittance U2 is calculated based on the difference D1 calculated in step S43. Then, using the calculated transmittance U2, a transmission image is generated from the reference background difference area extracted in step S41 (step S21), and the generated transmission image is superimposed on the through image and displayed on the LCD 23 ( Step S22), the process proceeds to step S23.

<変形例>
第2の実施の形態におけるデジタルスチルカメラ1は、参照背景差分領域および対象背景差分領域の差分D1から対象画像の背景と参照画像の背景とが一致しているか否かを判断するようにした。変形例におけるデジタルスチルカメラ1は、差分D1に加えて、参照画像の被写体領域と対象画像の被写体領域との差分D2を考慮して対象画像の背景領域と参照画像の背景領域とのずれ量を検出するようにした。以下、第2の実施の形態におけるデジタルスチルカメラ1と異なる部分を主に説明する。
<Modification>
The digital still camera 1 according to the second embodiment determines whether the background of the target image matches the background of the reference image from the difference D1 between the reference background difference area and the target background difference area. In addition to the difference D1, the digital still camera 1 in the modified example takes into account the difference D2 between the subject area of the reference image and the subject area of the target image, and sets the amount of deviation between the background area of the target image and the background area of the reference image. It was made to detect. In the following, the differences from the digital still camera 1 in the second embodiment will be mainly described.

図12は、第2の実施の形態の変形例におけるデジタルスチルカメラが備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示す機能ブロック図である。図12を参照して、図10に示す機能ブロック図と異なる点は、比較部87Bが比較部87Cに変更された点である。その他の機能は図10に示した機能と同じなのでここでは説明を繰り返さない。   FIG. 12 is a functional block diagram illustrating an example of an outline of functions of a control unit included in the digital still camera according to the modification of the second embodiment, together with data stored in the EEPROM. Referring to FIG. 12, the difference from the functional block diagram shown in FIG. 10 is that comparison unit 87B is changed to comparison unit 87C. The other functions are the same as those shown in FIG. 10, and thus description thereof will not be repeated here.

比較部87Cは、背景差分算出部115と、被写体差分算出部117と、重付差分算出部119と、判定部91Aとを含む。背景差分算出部115については上述したので、ここでは説明を繰り返さない。   The comparison unit 87C includes a background difference calculation unit 115, a subject difference calculation unit 117, a weighted difference calculation unit 119, and a determination unit 91A. Since the background difference calculation unit 115 has been described above, description thereof will not be repeated here.

被写体差分算出部117は、対象被写体領域予測部83から対象被写体領域が入力され、参照被写体領域予測部75から参照被写体領域が入力される。被写体差分算出部117は、対象被写体領域と参照被写体領域とが重なる被写体の領域を特定し、特定された被写体の領域の差分D2を算出する。被写体差分算出部117は、算出された被写体の領域の差分D2を重付差分算出部119に出力する。   The subject difference calculation unit 117 receives the target subject region from the target subject region prediction unit 83 and receives the reference subject region from the reference subject region prediction unit 75. The subject difference calculation unit 117 specifies a subject region where the target subject region and the reference subject region overlap, and calculates a difference D2 of the specified subject region. The subject difference calculation unit 117 outputs the calculated subject area difference D2 to the weighted difference calculation unit 119.

重付差分算出部119は、被写体差分算出部117から入力された被写体領域の差分D2と背景差分算出部115から入力された背景領域の差分D1とに基づいて、重付差分DWを算出する。重付差分DWは、背景領域の差分D1をW1倍した値と被写体の領域の差分D2をW2倍した値との和である。重み付け係数W1は「10」、重み付け係数W2は「3」が好ましい。重付差分算出部119は、算出された重付差分DWを判定部91Aに出力する。   The weight difference calculation unit 119 calculates the weight difference DW based on the subject area difference D2 input from the subject difference calculation section 117 and the background area difference D1 input from the background difference calculation section 115. The weighting difference DW is the sum of a value obtained by multiplying the background region difference D1 by W1 and a value obtained by multiplying the subject region difference D2 by W2. The weighting coefficient W1 is preferably “10” and the weighting coefficient W2 is preferably “3”. The weight difference calculation unit 119 outputs the calculated weight difference DW to the determination unit 91A.

判定部91Aは、背景差分算出部115から入力される重付差分DWを所定のしきい値T3と比較し、重付差分DWが所定のしきい値T3以下ならば、背景が一致していると判定し、重付差分DWが所定のしきい値T3より大きければ、背景が一致していないと判定する。判定部91Aは、背景が一致していると判定する場合、一致信号を通知部93に出力し、背景が一致していないと判定する場合、不一致信号と差分とを通知部93に出力する。   The determination unit 91A compares the weighting difference DW input from the background difference calculation unit 115 with a predetermined threshold value T3. If the weighting difference DW is equal to or smaller than the predetermined threshold value T3, the backgrounds match. If the weighting difference DW is larger than the predetermined threshold value T3, it is determined that the backgrounds do not match. When determining that the backgrounds match, the determination unit 91 </ b> A outputs a match signal to the notification unit 93, and when determining that the backgrounds do not match, the determination unit 91 </ b> A outputs a mismatch signal and a difference to the notification unit 93.

図13は、第2の実施の形態の変形例における撮像処理の流れの一例を示すフローチャートである。図13を参照して、図11に示した撮像処理と異なる点は、ステップS15AがステップS15Bに変更された点、ステップS43とステップS15Aとの間にステップS51およびステップS52が追加された点、およびステップS20AがステップS20Bに変更された点である。その他の処理は、図11に示した処理と同じなのでここでは説明を繰り返さない。   FIG. 13 is a flowchart illustrating an example of the flow of an imaging process in a modification of the second embodiment. Referring to FIG. 13, the difference from the imaging process shown in FIG. 11 is that step S15A is changed to step S15B, step S51 and step S52 are added between step S43 and step S15A, And step S20A is the point changed to step S20B. Other processing is the same as the processing shown in FIG. 11, and therefore description thereof will not be repeated here.

ステップS51においては、ステップS08において予測された参照被写体領域とステップS12において予測された対象被写体領域とが重なる領域の差分D2を算出する。そして、ステップS43において算出された差分D1と、ステップS51において算出された差分D2とから重付差分DWを算出する(ステップS52)。重付差分DWは、差分D1に重み付け係数W1を掛けた値と差分D2に重み付け係数W2を掛けた値との和である。   In step S51, a difference D2 between the regions where the reference subject region predicted in step S08 and the target subject region predicted in step S12 overlap is calculated. Then, a weighting difference DW is calculated from the difference D1 calculated in step S43 and the difference D2 calculated in step S51 (step S52). The weighting difference DW is the sum of a value obtained by multiplying the difference D1 by the weighting coefficient W1 and a value obtained by multiplying the difference D2 by the weighting coefficient W2.

次のステップS15Bにおいては、ステップS52において算出された重付差分DWがしきい値T3以下であるか否かを判断する。重付差分DWがしきい値T3以下ならば、処理をステップS16に進めるが、そうでなければ処理をステップS18に進める。   In the next step S15B, it is determined whether or not the weighting difference DW calculated in step S52 is equal to or less than a threshold value T3. If weighting difference DW is equal to or smaller than threshold value T3, the process proceeds to step S16; otherwise, the process proceeds to step S18.

ステップS20Bにおいては、ステップS52において算出された重付差分DWに基づいて透過率U3を算出し、処理をステップS21に進める。ステップS21においては、透過率U3を用いて、ステップS41において抽出された参照背景差分領域から透過画像を生成し、処理をステップS22に進める。   In step S20B, transmittance U3 is calculated based on the weighting difference DW calculated in step S52, and the process proceeds to step S21. In step S21, a transmission image is generated from the reference background difference area extracted in step S41 using the transmittance U3, and the process proceeds to step S22.

なお、本実施の形態におけるデジタルスチルカメラ1は、撮像してEEPROM25に記憶された複数の画像データのうちから任意の画像データを参照画像とする例を示した。具体的には、撮像モードが直前画像参照モードに設定されている場合は、EEPROM25に最後に記憶された画像データを参照画像とし、撮像モードが過去画像参照モードに設定されている場合、EEPROM25に記憶されている画像データ101のうちユーザにより選択された画像データを参照画像とした。参照画像は、撮像してEEPROM25に記憶された画像データに限らず、外部から入力される画像データ、例えば、パーソナルコンピュータからダウンロードした画像データであってもよい。また、参照画像は、画像データそのものではなく、画像を拡大処理し、拡大された画像から切り出した画像であってもよい。   Note that the digital still camera 1 according to the present embodiment has shown an example in which arbitrary image data is used as a reference image from among a plurality of image data captured and stored in the EEPROM 25. Specifically, when the imaging mode is set to the previous image reference mode, the image data stored last in the EEPROM 25 is used as a reference image, and when the imaging mode is set to the past image reference mode, the EEPROM 25 is stored. Of the stored image data 101, image data selected by the user is used as a reference image. The reference image is not limited to image data captured and stored in the EEPROM 25, but may be image data input from the outside, for example, image data downloaded from a personal computer. In addition, the reference image may not be image data itself but may be an image obtained by enlarging the image and cutting out the enlarged image.

さらに、本実施の形態においては、主要被写体として人物を撮像する例を示したが、主要被写体となり得るのは人物に限らず、ペットやぬいぐるみなどの玩具であってもよい。この場合、本実施の形態においては、参照画像または背景画像から被写体が表された被写体領域を抽出する場合に、顔が表された顔領域を抽出し、その顔領域から所定の関係にある範囲を被写体領域とした。主要被写体を、ペットやぬいぐるみなどの玩具にする場合は、ペットやぬいぐるみなどの玩具が有する特徴、例えば、その主要被写体が有する特徴的な色や形状などを画像中から抽出するようにすればよい。   Furthermore, in the present embodiment, an example is shown in which a person is imaged as a main subject, but a main subject is not limited to a person, and a toy such as a pet or a stuffed toy may be used. In this case, in the present embodiment, when extracting a subject area representing a subject from a reference image or a background image, the face area representing a face is extracted, and a range having a predetermined relationship from the face area is extracted. Was the subject area. When the main subject is a toy such as a pet or a stuffed toy, the characteristics of the toy such as a pet or a stuffed toy, for example, the characteristic color or shape of the main subject may be extracted from the image. .

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

<付記>
(1) 前記通知手段は、前記参照背景領域と前記対象背景領域とが一致していると判別された場合に通知する、請求項3、6および7のいずれかに記載の撮像装置。
<Appendix>
(1) The imaging device according to any one of claims 3, 6, and 7, wherein the notification unit notifies when it is determined that the reference background region and the target background region match.

1 デジタルスチルカメラ、11 制御部、11A 制御部、13 レンズ群、15 レンズ駆動部、19 イメージセンサ、21 コーデック、22 信号処理回路、23 LCD、25 EEPROM、27 SDRAM、29 カードI/F、29A メモリカード、31 スピーカ、35 操作部、35A シャッタボタン、35B モード設定ボタン、41 バッテリ、61 撮像制御部、63 表示制御部、65 操作受付部、67 記憶制御部、69 補助部、71 参照被写体領域抽出部、73 参照顔領域検出部、75 参照被写体領域予測部、77 参照背景領域抽出部、79 対象被写体領域抽出部、81 対象顔領域検出部、83 対象被写体領域予測部、85 対象背景領域抽出部、87,87A,87B,87C 比較部、89,89A 動きベクトル決定部、91,91A 判定部、93 通知部、95,95A 透過画像生成部、97 音発生部、99 メッセージ生成部、101 画像データ、111 対象特徴点抽出部、113 参照特徴点抽出部、115 背景差分算出部、117 被写体差分算出部、119 重付差分算出部、121 相関値演算部、122 累積加算部、123 最小値検出部、124 平均値算出部、125 動きベクトル発生部。

DESCRIPTION OF SYMBOLS 1 Digital still camera, 11 Control part, 11A Control part, 13 Lens group, 15 Lens drive part, 19 Image sensor, 21 Codec, 22 Signal processing circuit, 23 LCD, 25 EEPROM, 27 SDRAM, 29 Card I / F, 29A Memory card, 31 speaker, 35 operation unit, 35A shutter button, 35B mode setting button, 41 battery, 61 imaging control unit, 63 display control unit, 65 operation reception unit, 67 storage control unit, 69 auxiliary unit, 71 reference subject area Extraction unit, 73 Reference face region detection unit, 75 Reference subject region prediction unit, 77 Reference background region extraction unit, 79 Target subject region extraction unit, 81 Target face region detection unit, 83 Target subject region prediction unit, 85 Target background region extraction Part, 87, 87A, 87B, 87C comparison part, 89, 89A motion vector determination part 91, 91A determination unit, 93 notification unit, 95, 95A transmission image generation unit, 97 sound generation unit, 99 message generation unit, 101 image data, 111 target feature point extraction unit, 113 reference feature point extraction unit, 115 background difference calculation , 117 subject difference calculation unit, 119 weighted difference calculation unit, 121 correlation value calculation unit, 122 cumulative addition unit, 123 minimum value detection unit, 124 average value calculation unit, 125 motion vector generation unit.

Claims (14)

被写体を撮像し、画像を出力する撮像動作を実行する撮像手段と、
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出する参照背景領域抽出手段と、
前記撮像手段により出力された画像から背景が表された対象背景領域を抽出する対象背景領域抽出手段と、
前記参照背景領域と前記対象背景領域とを比較する比較手段と、
前記比較手段による比較結果を通知する通知手段と、を備えた撮像装置。
An imaging means for imaging an object and executing an imaging operation for outputting the image;
Reference background area extraction means for extracting a reference background area representing a background from a reference image based on an image selected from images stored in the storage means;
Target background area extraction means for extracting a target background area representing a background from the image output by the imaging means;
Comparison means for comparing the reference background region and the target background region;
An imaging device comprising: notification means for notifying a comparison result by the comparison means.
前記参照背景領域抽出手段は、前記参照画像から物体が表された参照物体領域を抽出する参照物体領域抽出手段と、
前記抽出された参照物体領域を含み、前記参照物体領域と所定の関係にある領域を参照被写体領域として抽出する参照被写体領域抽出手段と、を含み、
前記参照画像から前記参照被写体領域を除いた領域を参照背景領域として抽出し、
前記対象背景領域抽出手段は、前記撮像手段により出力された画像から物体が表された対象物体領域を抽出する対象物体領域抽出手段と、
前記抽出された対象物体領域を含み、前記対象物体領域と所定の関係にある領域を対象被写体領域として抽出する対象被写体領域抽出手段と、を含み、
前記撮像手段により出力された画像から前記対象被写体領域を除いた領域を対象背景領域として抽出する、請求項1に記載の撮像装置。
The reference background area extracting means extracts a reference object area extracting means for extracting a reference object area representing an object from the reference image;
A reference subject region extraction unit that includes the extracted reference object region and extracts a region having a predetermined relationship with the reference object region as a reference subject region,
An area excluding the reference subject area from the reference image is extracted as a reference background area,
The target background area extracting means is a target object area extracting means for extracting a target object area representing an object from the image output by the imaging means;
Target subject region extraction means that includes the extracted target object region, and extracts a region that has a predetermined relationship with the target object region as a target subject region,
The imaging apparatus according to claim 1, wherein an area obtained by removing the target subject area from the image output by the imaging unit is extracted as a target background area.
前記比較手段は、前記参照背景領域と前記対象背景領域とのずれ量を検出するずれ量検出手段と、
前記ずれ量が所定条件を満たすか否かを判別する判別手段と、を備え、
前記通知手段は、前記判別手段による判別の結果、前記ずれ量が所定条件を満たしていないと判別すると、前記ずれ量を通知する、請求項1または2に記載の撮像装置。
The comparison unit includes a shift amount detection unit that detects a shift amount between the reference background region and the target background region;
Determining means for determining whether or not the deviation amount satisfies a predetermined condition;
The imaging apparatus according to claim 1, wherein the notification unit notifies the shift amount when it is determined that the shift amount does not satisfy a predetermined condition as a result of determination by the determination unit.
前記通知手段は、前記参照背景領域に対応する画像と前記撮像手段により出力された画像とを透過率に基づいて合成し、表示する合成画像表示手段を、含む請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the notification unit includes a combined image display unit that combines and displays an image corresponding to the reference background area and an image output by the imaging unit based on transmittance. 被写体を撮像し、画像を出力する撮像動作を実行する撮像手段と、
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出する参照被写体域抽出手段と、
前記撮像手段により出力された画像から被写体が表された対象被写体領域を抽出する対象被写体域抽出手段と、
前記参照画像から前記参照被写体領域を除いた領域を参照背景領域として抽出する参照背景領域抽出手段と、
前記撮像手段により出力された画像から前記対象被写体領域を除いた領域を対象背景領域として抽出する対象背景領域抽出手段と、
前記参照背景領域と前記対象背景領域とを比較する比較手段と、
前記比較手段による比較結果を通知する通知手段と、を備えた撮像装置。
An imaging means for imaging an object and executing an imaging operation for outputting the image;
Reference subject area extracting means for extracting a reference subject area representing a subject from a reference image based on an image selected from images stored in the storage means;
Target subject area extraction means for extracting a target subject area in which a subject is represented from the image output by the imaging means;
A reference background area extracting means for extracting an area excluding the reference subject area from the reference image as a reference background area;
Target background area extraction means for extracting, as a target background area, an area obtained by removing the target subject area from the image output by the imaging means;
Comparison means for comparing the reference background region and the target background region;
An imaging device comprising: notification means for notifying a comparison result by the comparison means.
前記比較手段は、前記参照背景領域から前記対象被写体領域を除いた参照背景差分領域と前記対象背景領域から前記参照被写体領域を除いた対象背景差分領域との差分を背景差分として算出する背景差分算出手段と、
前記背景差分が所定条件を満たすか否かを判別する判別手段と、を含む請求項5に記載の撮像装置。
The comparison means calculates a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference calculation. Means,
The imaging apparatus according to claim 5, further comprising: a determination unit that determines whether the background difference satisfies a predetermined condition.
前記比較手段は、前記参照背景領域から前記対象被写体領域を除いた参照背景差分領域と前記対象背景領域から前記参照被写体領域を除いた対象背景差分領域との差分を背景差分として算出する背景差分算出手段と、
前記参照被写体領域と前記対象被写体領域とで共通する領域の差分を被写体差分として算出する被写体差分算出手段と、
前記背景差分と前記被写体差分とに重み付けした重付差分を算出する重付差分算出手段と、
前記重付差分が所定条件を満たすか否かを判別する判別手段と、を含む請求項5に記載の撮像装置。
The comparison means calculates a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference calculation. Means,
Subject difference calculation means for calculating a difference between regions common to the reference subject region and the target subject region as a subject difference;
A weighted difference calculating means for calculating a weighted difference weighted to the background difference and the subject difference;
The imaging device according to claim 5, further comprising: a determination unit that determines whether the weighting difference satisfies a predetermined condition.
前記通知手段は、前記重付差分が所定条件を満たさないと判別された場合に、前記参照背景差分領域に対応する画像と前記撮像手段により出力された画像とを透過率に基づいて合成し、表示する合成画像表示手段を、含む請求項6または7に記載の撮像装置。   The notification means, when it is determined that the weighting difference does not satisfy a predetermined condition, combines the image corresponding to the reference background difference area and the image output by the imaging means based on the transmittance, The imaging apparatus according to claim 6, further comprising a composite image display unit for displaying. 前記参照画像は、前記記憶手段に直前に記憶された画像である、請求項1〜8のいずれかに記載の撮像装置。   The imaging device according to claim 1, wherein the reference image is an image stored immediately before in the storage unit. 前記参照画像は、前記記憶手段に記憶された画像のうちからユーザにより選択された画像である、請求項1〜8のいずれかに記載の撮像装置。   The imaging device according to claim 1, wherein the reference image is an image selected by a user from images stored in the storage unit. 被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置で実行される撮像支援方法であって、
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を含む撮像支援方法。
An imaging support method executed by an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference background region representing a background from a reference image based on an image selected from images stored in the storage means;
Extracting a target background area representing a background from the image output by the imaging means;
Comparing the reference background region and the target background region;
And a step of notifying a comparison result in the comparing step.
被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置で実行される撮像支援方法であって、
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、
前記撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、
前記参照画像から前記参照被写体領域および前記対象被写体領域のいずれでもない参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から前記参照被写体領域および前記対象被写体領域のいずれでもない対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を含む撮像支援方法。
An imaging support method executed by an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference subject area in which a subject is represented from a reference image based on an image selected from images stored in a storage unit;
Extracting a target subject area in which a subject is represented from an image output by the imaging means;
Extracting a reference background area that is neither the reference subject area nor the target subject area from the reference image;
Extracting a target background area that is neither the reference subject area nor the target subject area from the image output by the imaging means;
Comparing the reference background region and the target background region;
And a step of notifying a comparison result in the comparing step.
被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置を制御するコンピュータで実行される撮像支援プログラムであって、
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を前記コンピュータに実行させる撮像支援プログラム。
An imaging support program that is executed by a computer that controls an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference background region representing a background from a reference image based on an image selected from images stored in the storage means;
Extracting a target background area representing a background from the image output by the imaging means;
Comparing the reference background region and the target background region;
An imaging support program for causing the computer to execute a step of notifying a comparison result in the comparing step.
被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置を制御するコンピュータで実行される撮像支援プログラムであって、
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、
前記撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、
前記参照画像から前記参照被写体領域および前記対象被写体領域のいずれでもない参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から前記参照被写体領域および前記対象被写体領域のいずれでもない対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を前記コンピュータに実行させる撮像支援プログラム。
An imaging support program that is executed by a computer that controls an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference subject area in which a subject is represented from a reference image based on an image selected from images stored in a storage unit;
Extracting a target subject area in which a subject is represented from an image output by the imaging means;
Extracting a reference background area that is neither the reference subject area nor the target subject area from the reference image;
Extracting a target background area that is neither the reference subject area nor the target subject area from the image output by the imaging means;
Comparing the reference background region and the target background region;
An imaging support program for causing the computer to execute a step of notifying a comparison result in the comparing step.
JP2010124043A 2010-05-31 2010-05-31 Imaging apparatus, imaging support method, and imaging support program Pending JP2011250351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010124043A JP2011250351A (en) 2010-05-31 2010-05-31 Imaging apparatus, imaging support method, and imaging support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010124043A JP2011250351A (en) 2010-05-31 2010-05-31 Imaging apparatus, imaging support method, and imaging support program

Publications (1)

Publication Number Publication Date
JP2011250351A true JP2011250351A (en) 2011-12-08

Family

ID=45415001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010124043A Pending JP2011250351A (en) 2010-05-31 2010-05-31 Imaging apparatus, imaging support method, and imaging support program

Country Status (1)

Country Link
JP (1) JP2011250351A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130104070A (en) * 2012-03-12 2013-09-25 삼성테크윈 주식회사 Apparatus and method for processing monitoring image
WO2021065934A1 (en) * 2019-10-04 2021-04-08 日産化学株式会社 Liquid crystal aligning agent, liquid crystal alignment film and liquid crystal display element using same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130104070A (en) * 2012-03-12 2013-09-25 삼성테크윈 주식회사 Apparatus and method for processing monitoring image
KR101864318B1 (en) * 2012-03-12 2018-06-05 한화에어로스페이스 주식회사 Apparatus and method for processing monitoring image
WO2021065934A1 (en) * 2019-10-04 2021-04-08 日産化学株式会社 Liquid crystal aligning agent, liquid crystal alignment film and liquid crystal display element using same

Similar Documents

Publication Publication Date Title
JP4904243B2 (en) Imaging apparatus and imaging control method
JP4656331B2 (en) Imaging apparatus and imaging method
JP4898532B2 (en) Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded
JP4645685B2 (en) Camera, camera control program, and photographing method
JP5044321B2 (en) Imaging apparatus and subject detection method
US20140211050A1 (en) Imaging device, imaging method and recording medium
JP2005318554A (en) Imaging device, control method thereof, program, and storage medium
JP2008054295A (en) System for and method of photographing, and computer program
US9055212B2 (en) Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user
US20100246968A1 (en) Image capturing apparatus, image processing method and recording medium
JP4891674B2 (en) camera
JP5546691B2 (en) Imaging apparatus, imaging method, and program
JP2008085737A (en) Electronic camera
JP4306482B2 (en) Red-eye image correction device, electronic camera, and red-eye image correction program
JP2006025311A (en) Imaging apparatus and image acquisition method
JP4492273B2 (en) Imaging apparatus and program
JP5367129B2 (en) Imaging apparatus, control apparatus, and control method thereof
JP2013098935A (en) Tracking apparatus and tracking method
JP2010161547A (en) Composition selecting device and program
JP2011250351A (en) Imaging apparatus, imaging support method, and imaging support program
JP5858658B2 (en) Imaging device
JP2014225763A (en) Imaging apparatus, control method of the same, program, and storage medium
JP2009089083A (en) Age estimation photographing device and age estimation photographing method
JP5854861B2 (en) Imaging device, control method thereof, and control program
JP5424827B2 (en) Image processing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130607

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20131001