JP2011250351A - Imaging apparatus, imaging support method, and imaging support program - Google Patents
Imaging apparatus, imaging support method, and imaging support program Download PDFInfo
- Publication number
- JP2011250351A JP2011250351A JP2010124043A JP2010124043A JP2011250351A JP 2011250351 A JP2011250351 A JP 2011250351A JP 2010124043 A JP2010124043 A JP 2010124043A JP 2010124043 A JP2010124043 A JP 2010124043A JP 2011250351 A JP2011250351 A JP 2011250351A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- area
- image
- background
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
この発明は、撮像装置、撮像支援方法および撮像支援プログラムに関し、特に撮像を補助することが可能な撮像装置、その撮像装置で実行される撮像支援方法および撮像支援プログラムに関する。 The present invention relates to an imaging apparatus, an imaging support method, and an imaging support program, and more particularly to an imaging apparatus capable of assisting imaging, an imaging support method executed by the imaging apparatus, and an imaging support program.
従来、主要被写体となる人物と撮影者とが交代して同じ背景で複数の画像を撮像する場合に、カメラの撮像範囲が同じになるように撮影者を支援する技術が開発されている。例えば、特開2005−102263号公報には、被写体を撮像する撮像手段と、撮影待機状態で撮像手段により撮像された画像をスルー画像として表示する表示手段とを備えたカメラ装置において、所定の撮影モードで、画像を記録する本撮影に先立つ仮撮影に際して前記撮像手段により撮像された画像の構図を示す基準画像を一時記憶する一時記憶手段と、この一時記憶手段に一時記憶されている基準画像を前記撮像手段により逐次撮像される画像とを合成する合成手段と、前記本撮影の待機状態で、前記合成手段により合成された合成画像を前記表示手段に表示させる制御手段とを備えたことを特徴とするカメラ装置が記載されている。 Conventionally, when a person who is a main subject and a photographer take turns to capture a plurality of images with the same background, a technology has been developed to assist the photographer so that the imaging range of the camera is the same. For example, in Japanese Patent Application Laid-Open No. 2005-102263, a predetermined photographing is performed in a camera device including an imaging unit that images a subject and a display unit that displays an image captured by the imaging unit in a shooting standby state as a through image. In the mode, a temporary storage means for temporarily storing a reference image showing a composition of an image captured by the imaging means at the time of temporary shooting prior to the main shooting for recording an image, and a reference image temporarily stored in the temporary storage means. A combination unit configured to combine the images sequentially captured by the imaging unit; and a control unit configured to display the combined image combined by the combination unit on the display unit in a standby state of the main photographing. Is described.
しかしながら、従来のカメラ装置においては、仮撮影時に撮像された基準画像と、スルー画像とで被写体が異なる場合に、スルー画像を基準画像と重なるように撮像範囲を変更する操作が困難であるといった問題がある。例えば、本撮像時には存在しない被写体が仮撮像時に存在した場合は、スルー画像とともに実際には存在しない被写体が基準画像として表示されるので、スルー画像のいずれの部分を基準画像に合わせればよいのかを判断できない場合がある。逆に、本撮像時には存在する被写体が仮撮像時には存在しない場合は、スルー画像の被写体部分にその背景が基準画像として表示されるので、スルー画像のいずれの部分を基準画像に合わせればよいのかを判断できない場合がある。
この発明は、上述した問題点を解決するためになされたもので、この発明の目的の1つは、ユーザによる撮像範囲を合わせる操作を容易にした撮像装置を提供することである。 The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide an imaging apparatus that facilitates an operation for adjusting the imaging range by the user.
この発明の他の目的は、ユーザによる撮像範囲を合わせる操作を容易にした撮像支援方法を提供することである。 Another object of the present invention is to provide an imaging support method that makes it easy for a user to adjust the imaging range.
この発明のさらに他の目的は、ユーザによる撮像範囲を合わせる操作を容易にした撮像支援プログラムを提供することである。 Still another object of the present invention is to provide an imaging support program that makes it easy for a user to adjust the imaging range.
上述した問題を達成するためにこの発明のある局面によれば、撮像装置は、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段と、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出する参照背景領域抽出手段と、撮像手段により出力された画像から背景が表された対象背景領域を抽出する対象背景領域抽出手段と、参照背景領域と対象背景領域とを比較する比較手段と、比較手段による比較結果を通知する通知手段と、を備える。 In order to achieve the above-described problem, according to an aspect of the present invention, an imaging apparatus selects an imaging unit that performs an imaging operation for imaging a subject and outputs the image, and an image stored in the storage unit. A reference background area extracting means for extracting a reference background area representing a background from a reference image based on the displayed image, and a target background area extracting means for extracting a target background area representing a background from the image output by the imaging means And comparison means for comparing the reference background area and the target background area, and notification means for notifying the comparison result by the comparison means.
この局面に従えば、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域が抽出され、撮像手段により出力された画像から背景が表された対象背景領域が抽出され、参照背景領域と対象背景領域との比較結果が通知される。このため、ユーザは、通知される比較結果に基づいて、これから撮像しようとする画像の撮像範囲を変更することができる。その結果、撮像範囲を合わせる操作を容易にした撮像装置を提供することができる。 According to this aspect, the reference background region representing the background is extracted from the reference image based on the image selected from the images stored in the storage unit, and the background is represented from the image output by the imaging unit. The target background area is extracted, and a comparison result between the reference background area and the target background area is notified. For this reason, the user can change the imaging range of an image to be captured from now on based on the notified comparison result. As a result, it is possible to provide an imaging apparatus that facilitates an operation for adjusting the imaging range.
好ましくは、参照背景領域抽出手段は、参照画像から物体が表された参照物体領域を抽出する参照物体領域抽出手段と、抽出された参照物体領域を含み、参照物体領域と所定の関係にある領域を参照被写体領域として抽出する参照被写体領域抽出手段と、を含み、参照画像から参照被写体領域を除いた領域を参照背景領域として抽出し、対象背景領域抽出手段は、撮像手段により出力された画像から物体が表された対象物体領域を抽出する対象物体領域抽出手段と、抽出された対象物体領域を含み、対象物体領域と所定の関係にある領域を対象被写体領域として抽出する対象被写体領域抽出手段と、を含み、撮像手段により出力された画像から対象被写体領域を除いた領域を対象背景領域として抽出する。 Preferably, the reference background area extracting means includes a reference object area extracting means for extracting a reference object area representing an object from the reference image, and an area including the extracted reference object area and having a predetermined relationship with the reference object area. A reference subject region extracting means for extracting the reference subject region as a reference subject region, extracting a reference subject region from the reference image as a reference background region, and the target background region extracting means from the image output by the imaging means Target object region extracting means for extracting a target object region in which an object is represented; target subject region extracting means for extracting, as a target subject region, a region including the extracted target object region and having a predetermined relationship with the target object region; , And a region obtained by removing the target subject region from the image output by the imaging unit is extracted as a target background region.
この局面に従えば、画像から主要被写体が表された領域と、主要被写体を除いた背景が表された領域とを容易に抽出することができる。 According to this aspect, it is possible to easily extract an area representing the main subject and an area representing the background excluding the main subject from the image.
好ましくは、比較手段は、参照背景領域と対象背景領域とのずれ量を検出するずれ量検出手段と、ずれ量が所定条件を満たすか否かを判別する判別手段と、を備え、通知手段は、判別手段による判別の結果、ずれ量が所定条件を満たしていないと判別すると、ずれ量を通知する。 Preferably, the comparison unit includes a shift amount detection unit that detects a shift amount between the reference background region and the target background region, and a determination unit that determines whether or not the shift amount satisfies a predetermined condition. If it is determined that the deviation amount does not satisfy the predetermined condition as a result of the discrimination by the discrimination means, the deviation amount is notified.
この局面に従えば、参照背景領域と対象背景領域とのずれ量が検出され、ずれ量が所定条件を満たしていないと判別されると、ずれ量が通知される。このため、ユーザは、通知されたずれ量に応じて、撮像しようとする画像の背景が記憶された画像の背景に一致するように撮像範囲を変更することができる。 According to this aspect, the shift amount between the reference background region and the target background region is detected, and when it is determined that the shift amount does not satisfy the predetermined condition, the shift amount is notified. For this reason, the user can change the imaging range so that the background of the image to be captured matches the background of the stored image according to the notified deviation amount.
好ましくは、通知手段は、参照背景領域に対応する画像と撮像手段により出力された画像とを透過率に基づいて合成し、表示する合成画像表示手段を含む。 Preferably, the notification unit includes a combined image display unit that combines and displays an image corresponding to the reference background area and an image output by the imaging unit based on the transmittance.
この局面に従えば、参照背景領域に対応する画像と撮像手段により出力された画像とが透過率に基づいて合成され、表示されるので、ユーザは、撮像しようとする画像と、記憶された画像の背景の画像とを同時に見ることができる。 According to this aspect, the image corresponding to the reference background area and the image output by the imaging unit are combined and displayed based on the transmittance, so that the user can select the image to be captured and the stored image. You can see the background image at the same time.
この発明の他の局面によれば、撮像装置は、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段と、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出する参照被写体域抽出手段と、撮像手段により出力された画像から被写体が表された対象被写体領域を抽出する対象被写体域抽出手段と、参照画像から参照被写体領域を除いた領域を参照背景領域として抽出する参照背景領域抽出手段と、撮像手段により出力された画像から対象被写体領域を除いた領域を対象背景領域として抽出する対象背景領域抽出手段と、参照背景領域と対象背景領域とを比較する比較手段と、比較手段による比較結果を通知する通知手段と、を備える。 According to another aspect of the present invention, an imaging apparatus captures a subject and outputs a reference image based on an image selected from an imaging unit that executes an imaging operation for outputting the image and an image stored in the storage unit A reference subject area extracting means for extracting a reference subject area representing the subject from the image, a target subject area extracting means for extracting a target subject area representing the subject from the image output by the imaging means, and a reference subject from the reference image A reference background region extracting unit that extracts a region excluding the region as a reference background region, a target background region extracting unit that extracts a region excluding the target subject region from the image output by the imaging unit, and a reference background Comparing means for comparing the area with the target background area, and notification means for notifying the comparison result by the comparing means.
この局面に従えば、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域が抽出され、撮像手段により出力された画像から被写体が表された対象被写体領域が抽出され、参照画像から参照被写体領域を除いた領域が参照背景領域として抽出され、撮像手段により出力された画像から対象被写体領域を除いた領域が対象背景領域として抽出され、参照背景領域と対象背景領域との比較結果が通知される。このため、ユーザは、通知される比較結果に基づいて、これから撮像しようとする画像の撮像範囲を変更することができる。その結果、撮像範囲を合わせる操作を容易にした撮像装置を提供することができる。 According to this aspect, the reference subject area representing the subject is extracted from the reference image based on the image selected from the images stored in the storage unit, and the subject is represented from the image output by the imaging unit. A target subject region is extracted, a region obtained by removing the reference subject region from the reference image is extracted as a reference background region, a region obtained by removing the target subject region from the image output by the imaging unit is extracted as a target background region, and a reference background is extracted. A comparison result between the area and the target background area is notified. For this reason, the user can change the imaging range of an image to be captured from now on based on the notified comparison result. As a result, it is possible to provide an imaging apparatus that facilitates an operation for adjusting the imaging range.
好ましくは、比較手段は、参照背景領域から対象被写体領域を除いた参照背景差分領域と対象背景領域から参照被写体領域を除いた対象背景差分領域との差分を背景差分として算出する背景差分算出手段と、背景差分が所定条件を満たすか否かを判別する判別手段と、を含む。 Preferably, the comparison means includes a background difference calculation means for calculating a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference. Determining means for determining whether or not the background difference satisfies a predetermined condition.
好ましくは、比較手段は、参照背景領域から対象被写体領域を除いた参照背景差分領域と対象背景領域から参照被写体領域を除いた対象背景差分領域との差分を背景差分として算出する背景差分算出手段と、参照被写体領域と対象被写体領域とで共通する領域の差分を被写体差分として算出する被写体差分算出手段と、背景差分と被写体差分とに重み付けした重付差分を算出する重付差分算出手段と、重付差分が所定条件を満たすか否かを判別する判別手段と、を含む。 Preferably, the comparison means includes a background difference calculation means for calculating a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference. Subject difference calculation means for calculating a difference between areas common to the reference subject area and the target subject area as subject differences, weight difference calculation means for calculating a weighting difference weighted to the background difference and the subject difference, Discriminating means for discriminating whether or not the attached difference satisfies a predetermined condition.
好ましくは、通知手段は、重付差分が所定条件を満たさないと判別された場合に、参照背景差分領域に対応する画像と撮像手段により出力された画像とを透過率に基づいて合成し、表示する合成画像表示手段を含む。 Preferably, when it is determined that the weighting difference does not satisfy the predetermined condition, the notifying unit combines the image corresponding to the reference background difference region and the image output by the imaging unit based on the transmittance, and displays And a composite image display means.
好ましくは、参照画像は、記憶手段に直前に記憶された画像である。 Preferably, the reference image is an image stored immediately before in the storage unit.
好ましくは、参照画像は、記憶手段に記憶された画像のうちからユーザにより選択された画像である。 Preferably, the reference image is an image selected by the user from among the images stored in the storage unit.
この発明の他の局面によれば、撮像支援方法は、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置で実行される撮像支援方法であって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、を含む。 According to another aspect of the present invention, an imaging support method is an imaging support method executed by an imaging apparatus including an imaging unit that executes an imaging operation of imaging a subject and outputting an image. A step of extracting a reference background region representing a background from a reference image based on an image selected from among the stored images, and a step of extracting a target background region representing a background from the image output by the imaging means And a step of comparing the reference background region and the target background region, and a step of notifying a comparison result in the comparing step.
この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援方法を提供することができる。 According to this aspect, it is possible to provide an imaging support method that facilitates an operation for adjusting the imaging range.
この発明の他の局面によれば、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置で実行される撮像支援方法であって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、参照画像から参照被写体領域および対象被写体領域のいずれでもない参照背景領域を抽出するステップと、撮像手段により出力された画像から参照被写体領域および対象被写体領域のいずれでもない対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、を含む。 According to another aspect of the present invention, there is provided an imaging support method executed by an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting the image, and the image stored in the storage unit A step of extracting a reference subject area in which a subject is represented from a reference image based on an image selected from among the steps, a step of extracting a target subject region in which the subject is represented from an image output by an imaging unit, and a reference image Extracting a reference background region that is neither the reference subject region nor the target subject region, extracting a target background region that is neither the reference subject region nor the target subject region from the image output by the imaging unit, and a reference background A step of comparing the region with the target background region, and a step of notifying a comparison result in the comparing step.
この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援方法を提供することができる。 According to this aspect, it is possible to provide an imaging support method that facilitates an operation for adjusting the imaging range.
この発明のさらに他の局面によれば、撮像支援プログラムは、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置を制御するコンピュータで実行される撮像支援プログラムであって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、をコンピュータに実行させる。 According to still another aspect of the present invention, the imaging support program is an imaging support program that is executed by a computer that controls an imaging apparatus that includes an imaging unit that performs imaging operation of imaging a subject and outputting the image. Extracting a reference background area representing a background from a reference image based on an image selected from images stored in the storage means, and a target background representing a background from the image output by the imaging means The computer is caused to execute a step of extracting a region, a step of comparing the reference background region and the target background region, and a step of notifying a comparison result in the comparing step.
この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援プログラムを提供することができる。 According to this aspect, it is possible to provide an imaging support program that facilitates an operation for adjusting the imaging range.
この発明のさらに他の局面によれば、撮像支援プログラムは、被写体を撮像し、画像を出力する撮像動作を実行する撮像手段を備えた撮像装置を制御するコンピュータで実行される撮像支援プログラムであって、記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、参照画像から参照被写体領域および対象被写体領域のいずれでもない参照背景領域を抽出するステップと、撮像手段により出力された画像から参照被写体領域および対象被写体領域のいずれでもない対象背景領域を抽出するステップと、参照背景領域と対象背景領域とを比較するステップと、比較するステップにおける比較結果を通知するステップと、をコンピュータに実行させる。 According to still another aspect of the present invention, the imaging support program is an imaging support program that is executed by a computer that controls an imaging apparatus that includes an imaging unit that performs imaging operation of imaging a subject and outputting the image. Extracting a reference subject area representing the subject from a reference image based on an image selected from the images stored in the storage unit, and a target subject representing the subject from the image output by the imaging unit A step of extracting a region, a step of extracting a reference background region that is neither a reference subject region nor a target subject region from a reference image, and a target that is neither a reference subject region nor a target subject region from an image output by an imaging unit A step of extracting the background region, a step of comparing the reference background region and the target background region, and a step of comparing To execute the step of notifying a comparison result at the flop, to the computer.
この局面に従えば、撮像範囲を合わせる操作を容易にした撮像支援プログラムを提供することができる。 According to this aspect, it is possible to provide an imaging support program that facilitates an operation for adjusting the imaging range.
以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
図1は、本発明の実施の形態の1つにおけるデジタルスチルカメラの構成の概略を示すブロック図である。図1を参照して、デジタルスチルカメラ1は、デジタルスチルカメラ1の全体を制御する制御部11と、フォーカスレンズおよびズームレンズを含む複数のレンズで構成されるレンズ群13と、レンズ群13を駆動するレンズ駆動部15と、イメージセンサ19と、コーデック(CODEC)21と、画像を処理する信号処理回路22と、液晶表示装置(LCD)23と、制御部11が実行するためのプログラム等を記憶するEEPROM(Electrically Erasable and Programmable Read Only Memory)25と、制御部11の作業領域として用いられるSDRAM(Synchronous Dynamic Random Access Memory)27と、メモリカード29Aが装着されるカードインターフェース(I/F)29と、スピーカ31と、ユーザの操作を受け付ける操作部35と、を含む。
<First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of a digital still camera according to one embodiment of the present invention. Referring to FIG. 1, a digital
レンズ群13は、デジタルスチルカメラ1本体の前面に設けられ、LCD23は、レンズ群13が設けられる面とは反対のデジタルスチルカメラ1の背面に設けられる。レンズ群13は、レンズ駆動部15により制御され、フォーカスレンズを移動することにより焦点を合わせる。レンズ群13は、ズームレンズを調整するズーム機構を有し、レンズ駆動部15は、レンズ群13のズーム量を変更する。
The
イメージセンサ19は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の光電変換素子であり、その結像面がレンズ群13の光軸に対して垂直となる。イメージセンサ19は、レンズ群13を介して結像面に結像する被写体の光学画像を光電変換し、画像データを制御部11に出力する。制御部11は、イメージセンサ19から出力される画像データを受け付け、画像データをSDRAM27に記憶する。ここでの画像データは、例えば、1画素がR(赤)G(緑)B(青)で構成されるビットマップ形式のデータである。なお、イメージセンサ19は、CMOSイメージセンサに限定されるものではなく、CCD(Charge Coupled Device)イメージセンサを用いてもよい。この場合、CCDイメージセンサは、アナログの信号を出力するので、アナログ/デジタル変換器によってCCDイメージセンサが出力するアナログの信号をデジタルの画像データに変換すればよい。なお、ここでは、光電変換素子としてのCMOSイメージセンサが出力するデジタルの画像データ、CCDイメージセンサが出力するアナログの信号を、総称して画像信号という。
The
イメージセンサ19は、制御部11により制御され、光電変換する時間が制御される。具体的には、制御部11は、イメージセンサ19に光電変換を開始させる場合、レンズ群13とイメージセンサ19との間に設けられたシャッタを開放する。これにより、イメージセンサ19が光電変換を開始する。制御部11は、光電変換させる時間が経過すると、シャッタを閉じ、イメージセンサ19に画像データを出力させる。
The
信号処理回路22は、SDRAM27に記憶された画像データを読み出し、画像データに対して種々の信号処理を施し、輝度信号と色差信号とで表される表色系のYUV形式に変換する。信号処理回路22は、YUV形式の画像データをSDRAM27に記憶する。
The
制御部11は、SDRAM27に記憶されたYUV形式の画像データからRGB信号を生成し、LCD23に出力する。これにより、LCD23にイメージセンサ19が撮像して出力する画像が表示される。なお、LCD23に代えて、有機EL(ElectroLuminescence)ディスプレイを用いてもよい。
The
コーデック21は、制御部11により制御され、SDRAM27に記憶されたYUV形式の画像データを読出し、圧縮符合化し、画像データを圧縮符号化した符号化データをSDRAM27またはEEPROM25に記憶する。ここでは、画像データをJPEG(Joint Photographic Experts Group)方式で圧縮符号化する。したがって、デジタルスチルカメラ1で静止画を撮像し記録する場合、ユーザがシャッタボタン35Aを押下すれば、SDRAM27に静止画の画像データが記憶され、コーデック21により静止画の画像データがJPEG方式で圧縮符号化されて、JPEG方式の符号化データがSDRAM27またはEEPROM25に記憶される。
The
操作部35は、撮像を開始する指示を受け付けるためのシャッタボタン35Aおよび撮像モードを設定する指示を受け付けるためのモード設定ボタン35Bを含む複数のボタンを含み、ユーザの操作を受け付ける。なお、操作部35は、LCD23上に重畳されたタッチパネルを含むようにしてもよい。
The
カードI/F29は、不揮発性メモリを備えたメモリカード29Aが装着される。制御部11は、カードI/F29を介して、メモリカード29Aにアクセス可能であり、SDRAM27に記憶された符号化データをメモリカード29Aに記憶したり、または、メモリカード29Aに記憶された符号化データを読み出してSDRAM27に記憶したりする。
The card I /
なお、撮像支援プログラムをEEPROM25に記憶する例を説明するが、EEPROM25に限られず、メモリカード29Aに記憶された撮像支援プログラムを実行するようにしても良い。さらに、撮像支援プログラムを記憶する記録媒体としては、メモリカード29Aに限られず、磁気テープ、フレキシブルディスク、光ディスク(CD−ROM(Compact Disc−Read Only Memory)/MO(Magnetic Optical Disc/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード(メモリカードを含む)、光カード、マスクROM、EPROM(Erasable Programmable ROM)などであってもよい。
An example in which the imaging support program is stored in the
本実施の形態におけるデジタルスチルカメラ1は、過去に撮像した画像と同じ背景に撮像範囲を合わせて2枚目以降の画像を撮像する際に、撮像範囲を合わせる操作を補助する機能を有する。過去に撮像した画像と背景を同一にして撮像する状況として、例えば、集合写真などを撮像する場合にデジタルスチルカメラ1を操作する人物と主要被写体となる人物とが入れ替わって撮像する第1の状況と、過去に訪れたことのある場所で撮像された画像の背景と一致させて撮像する第2の状況とがある。第1の状況と第2の状況とでは、撮像しようとする画像の背景を合わせる画像が異なる。ここでは、第1の状況で撮像する撮像モードを直前画像参照モードとし、第2の状況で撮像する撮像モードを過去画像参照モードとする。撮像モードは、ユーザが操作部35の備えるモード設定ボタン35Bを操作することにより、直前画像参照モードおよび過去画像参照モードのいずれかに設定される。
The digital
図2は、第1の実施の形態におけるデジタルスチルカメラ1が備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示すブロック図である。図2に示す機能は、デジタルスチルカメラ1が備える制御部11が、EEPROM25に記憶された撮像支援プログラムを実行することにより、実現される。図2を参照して、制御部11は、イメージセンサ19を制御する撮像制御部61と、LCD23を制御する表示制御部63と、記憶制御部67と、操作を受け付ける操作受付部65と、撮像を補助する補助部69とを備える。
FIG. 2 is a block diagram illustrating an example of an outline of functions of the control unit included in the digital
操作受付部65は、ユーザが操作部35の備えるシャッタボタン35Aを半押すると、フォーカス指示を撮像制御部61に出力し、ユーザがシャッタボタン35Aを全押すると、撮像指示を撮像制御部61に出力する。
When the user half-presses the
撮像制御部61は、操作受付部65から撮像指示が入力される前の段階では、イメージセンサ19に所定時間間隔で画像データを出力させ、イメージセンサ19により出力される画像データを表示制御部63および補助部69に出力する。表示制御部63は、操作受付部65から撮像指示が入力される前の段階で、撮像制御部61から所定時間間隔で入力される画像データの画像をLCD23に表示する。撮像指示が入力される前の段階でLCD23により表示される画像を、スルー画像という。
The
撮像制御部61は、フォーカス指示が入力されることに応じて、レンズ駆動部15を制御して、イメージセンサ19が所定の時間間隔で出力する画像データのコントラストが高くなるようにレンズ群13のフォーカスレンズを調整する、いわゆるオートフォーカス機能によりフォーカスを合わせる。なお、オートフォーカス機能の方式は、これに限定されることなく、他の方式を用いるようにしてもよい。
The
撮像制御部61は、操作受付部65から撮像指示が入力されると、レンズ駆動部15およびイメージセンサ19を制御して、イメージセンサ19に予め定められたシャッタ速度に対応する撮像時間だけ光電変換(露光)させ、イメージセンサ19が出力する画像データを取得する。具体的には、撮像制御部61は、操作受付部65から撮像指示が入力されると、フォーカスレンズを固定し、予め設定されたシャッタ速度に対応する撮像時間の間、レンズ群13に含まれるシャッタを開放することによってイメージセンサ19による光電変換を開始させる。そして、撮像制御部61は、撮像時間が経過するとシャッタを閉鎖し、イメージセンサ19が出力する画像データを取得し、取得した画像データを表示制御部63および記憶制御部67に出力する。
When an imaging instruction is input from the
表示制御部63は、操作受付部65が撮像指示を出力した後に撮像制御部61から入力される画像データの画像をLCD23に表示する。
The
記憶制御部67は、ユーザがLCD23に表示された画像を記憶する指示を操作部35に入力すると、操作受付部65が撮像指示を出力した後に撮像制御部61から入力される画像データを、コーデックに圧縮符号化させ、圧縮符号化された画像データをEEPROM25に記憶する。これにより、EEPROM25に画像データ101が記憶される。
When the user inputs an instruction to store the image displayed on the
操作受付部65は、ユーザがモード設定ボタン35Bを操作すると、撮像モードを直前画像参照モードと過去画像参照モードとのいずれかに設定する指示を受け付ける。操作受付部65は、直前画像参照モードに設定する指示を受け付けると、撮像モードを直前画像参照モードに設定し、過去画像参照モードに設定する指示を受け付けると、撮像モードを過去画像参照モードに設定する。
When the user operates the mode setting button 35B, the
補助部69は、参照被写体領域抽出部71と、参照背景領域抽出部77と、対象被写体領域抽出部79と、対象背景領域抽出部85と、比較部87と、通知部93とを含む。
The
参照被写体領域抽出部71は、EEPROM25に記憶されている画像データ101から主要被写体が表された被写体領域を抽出する。参照被写体領域抽出部71は、撮像モードが直前画像参照モードに設定されている場合、EEPROM25に記憶されている画像データ101のうちから最後に記憶された画像データを参照画像に設定する。EEPROM25に最後に記憶された画像データは、直前に撮像されて記憶された画像データである。参照被写体領域抽出部71は、撮像モードが過去画像参照モードに設定されている場合、EEPROM25に記憶されている画像データ101のうちユーザにより選択される画像データを参照画像に設定する。
The reference subject
参照被写体領域抽出部71は、参照顔領域検出部73と、参照被写体領域予測部75とを含む。参照顔領域検出部73は、参照画像から顔領域を検出する。顔領域を検出する方法は、色に基づき検出する方法と、形状に基づき検出する方法のいずれであってもよいし、それらを組み合わせてもよい。色に基づき検出する方法は、例えば、人の肌の色の範囲を予め定めておき、その範囲に含まれる色の画素の集合からなる領域を顔領域として検出する方法である。また、形状に基づき検出する方法は、人の顔の輪郭のパターンを複数種類準備しておき、そのパターンと一致するパターンの領域を顔領域として検出する方法である。参照顔領域検出部73は、参照画像から顔領域を検出すると、検出された顔領域を参照被写体領域予測部75に出力する。参照顔領域検出部73は、参照画像から複数の顔領域が検出される場合、複数の顔領域を参照被写体領域予測部75に出力する。
The reference subject
参照被写体領域予測部75は、参照顔領域検出部73から入力される顔領域に基づいて、参照画像から参照被写体領域を抽出する。具体的には、参照被写体領域予測部75は、参照顔領域検出部73から入力される顔領域を含む矩形の領域を矩形顔領域として特定する。参照画像から複数の顔領域が検出される場合、複数の顔領域それぞれを含む複数の矩形顔領域を特定する。そして、参照被写体領域予測部75は、矩形顔領域を水平方向および垂直方向それぞれ所定の倍率に拡張した矩形の領域を参照被写体領域として抽出する。統計的に、人の肩幅は、顔の横幅の約3倍、人の背丈は、顔の縦方向の約7倍であることが知られている。ここでは、参照被写体領域予測部75は、矩形顔領域を左右方向にそれぞれ矩形顔領域と同じ横幅分拡張し、横幅分拡張後の領域を下方向に矩形顔領域の縦方向の7倍分拡張した領域を参照被写体領域として予測する。参照被写体領域予測部75は、参照顔領域検出部73から複数の顔領域が入力される場合、複数の顔領域それぞれに対応する複数の参照被写体領域を予測し、予測された複数の参照被写体領域のすべてを含む1つの矩形の領域を参照被写体領域として抽出する。参照被写体領域予測部75は、参照画像中の顔領域から予測した参照被写体領域を参照背景領域抽出部77に出力する。
The reference subject
図3は、参照被写体領域の一例を示す図である。図3を参照して、参照被写体領域209は、第1参照被写体領域205と、第2参照被写体領域207とを含む。第1参照被写体領域205は、第1矩形顔領域201を含み、第2参照被写体領域207は、第2矩形顔領域203を含む。第1参照被写体領域205と第2参照被写体領域207とは、画像中の位置と大きさが異なるだけなので、ここでは第1参照被写体領域205について説明する。第1矩形顔領域201は、顔領域を含む矩形の領域として特定される。第1参照被写体領域205は、第1矩形顔領域201に基づいて特定される。具合的には、第1矩形顔領域201を左右方向にそれぞれ顔領域と同じ横幅分拡張し、横幅分拡張後の領域を下方向に顔領域の縦方向の7倍分拡張した矩形の領域が第1参照被写体領域205として特定される。そして、参照被写体領域209は、第1参照被写体領域205および第2参照被写体領域207を含む矩形の領域として特定される。
FIG. 3 is a diagram illustrating an example of the reference subject area. Referring to FIG. 3, reference
参照背景領域抽出部77は、参照画像から参照被写体領域を除いた領域を参照背景領域として抽出し、抽出された参照背景領域を比較部87および通知部93に出力する。
The reference background
対象被写体領域抽出部79は、撮像制御部61から入力される画像データを対象画像とし、対象画像から対象被写体領域を抽出する。撮像制御部61は、イメージセンサ19が所定時間間隔で出力する画像データを対象被写体領域抽出部79および表示制御部63に出力するので、表示制御部63がLCD23に表示する画像データと同じ画像データが対象被写体領域抽出部79に入力される。対象被写体領域抽出部79は、撮像制御部61から所定時間間隔で入力される画像データそれぞれを対象画像としてもよいが、撮像制御部61から所定時間間隔で入力される画像データのうちから間引いた画像データを参照画像としても良い。
The target subject
対象被写体領域抽出部79は、対象顔領域検出部81と、対象被写体領域予測部83とを含む。対象顔領域検出部81は、対象画像から顔領域を検出する。対象画像に複数の顔領域が含まれる場合、複数の顔領域を検出する。対象顔領域検出部81は、特定された顔領域を対象被写体領域予測部83に出力する。
The target subject
対象被写体領域予測部83は、対象顔領域検出部81によって検出された顔領域に基づいて、対象画像から対象被写体領域を抽出し、抽出された対象被写体領域を対象背景領域抽出部85に出力する。なお、対象被写体領域予測部83は、参照被写体領域予測部75が参照画像から参照被写体領域を抽出する処理と、処理対象とする画像が異なるのみなので、ここでは説明を繰り返さない。
The target subject
対象背景領域抽出部85は、対象画像から対象被写体領域を除いた領域を対象背景領域として抽出し、抽出された対象背景領域を比較部87に出力する。
The target background
比較部87は、参照背景領域抽出部77から入力された参照背景領域と対象背景領域抽出部85から入力された対象背景領域とを比較する。比較部87は、動きベクトル決定部89と、判定部91とを含む。
The
動きベクトル決定部89は、参照背景領域と対象背景領域とから動きベクトルを算出し、算出された動きベクトルを判定部91に出力する。動きベクトル決定部89の詳細は後述するが、動きベクトルは、参照背景領域と対象背景領域とのずれ量と、そのずれの方向とを示す。
The motion
判定部91は、動きベクトル決定部89から入力される動きベクトルに基づいて、参照背景領域と対象背景領域とが一致するか否かを判定する。具体的には、判定部91は、動きベクトルのスカラー量を所定のしきい値と比較し、スカラー量が所定のしきい値以下ならば、背景が一致していると判定し、スカラー量が所定のしきい値より大きければ、背景が一致していないと判定する。判定部91は、背景が一致していると判定する場合、一致信号を通知部93に出力し、背景が一致していないと判定する場合、不一致信号と動きベクトルとを通知部93に出力する。
The
通知部93は、判定部91から一致信号または不一致信号が入力され、不一致信号が入力される場合には動きベクトルが入力される。通知部93は、透過画像生成部95と、音発生部97と、メッセージ生成部99とを含む。透過画像生成部95は、参照背景領域抽出部77から参照背景領域が入力される。透過画像生成部95は、判定部91から不一致信号が入力される場合、不一致信号とともに入力される動きベクトルのスカラー量に応じた透過率を決定し、決定された透過率で参照画像の参照背景領域を透明化処理した透過画像を生成する。透過画像生成部95は、生成された透過画像を表示制御部63に出力する。表示制御部63は、透過画像生成部95から透過画像が入力される場合、撮像制御部61から入力される画像データに透過画像を合成した画像をLCD23に表示する。
The
ここで、透過率は、画素の輝度値を上げる度合いを示し、動きベクトルのスカラー量と反比例する。動きベクトルのスカラー量が大きいほど透過率は低くなり、動きベクトルのスカラー量が小さいほど透過率は高くなる。 Here, the transmittance indicates the degree of increasing the luminance value of the pixel, and is inversely proportional to the scalar quantity of the motion vector. The greater the scalar quantity of the motion vector, the lower the transmittance, and the smaller the motion vector scalar quantity, the higher the transmittance.
参照画像は、撮像モードが直前画像参照モードに設定されている場合は直前に撮像された画像であり、撮像モードが過去画像参照モードに設定されている場合はユーザにより指定された画像である。一方、対象画像は、LCD23に表示されているスルー画像と同じである。このため、撮像モードが直前画像参照モードに設定されている場合は直前に撮像された画像の背景領域の透過画像が、スルー画像に合成して表示される。さらに、直前に撮像された画像の背景領域と、スルー画像の背景領域とのずれ量が大きいほど、直前に撮像された画像の背景領域が濃く、はっきりと表示され、スルー画像の背景領域とのずれ量が小さいほど直前に撮像された画像の背景領域が薄く表示される。このため、デジタルスチルカメラ1を操作するユーザは、スルー画像と、透過画像とを同時に見ることができ、2つの画像のずれ量を確認することができる。したがって、ユーザがスルー画像が透過画像と一致するまで撮像範囲を変化させる操作が容易になる。また、ずれ量に応じて参照画像の透過率が変化するので、ずれ量を参照画像の輝度で通知することができる。
The reference image is an image captured immediately before when the imaging mode is set to the previous image reference mode, and is an image specified by the user when the imaging mode is set to the past image reference mode. On the other hand, the target image is the same as the through image displayed on the
音発生部97は、判定部91から一致信号が入力される場合と不一致信号が入力される場合とで、異なる音を発生する。音発生部97は、判定部91から一致信号が入力される場合、第1の音をスピーカ31に発生させ、不一致信号が入力されると、第2の音をスピーカ31に発生させる。第1の音と第2の音とは、周波数が異なってもよいし、発生する時間が異なってもよいし、所定時間に発生する回数が異なってもよい。これにより、第1の音を聞くユーザは、これから撮像しようとする画像の背景が参照画像の背景と一致していることを知ることができ、第2の音を聞くユーザは、これから撮像しようとする画像の背景が参照画像の背景と一致していないことを知ることができる。
The
メッセージ生成部99は、判定部91から一致信号が入力されると、背景が一致していることを示す第1のメッセージを生成し、生成された第1のメッセージを表示制御部63に出力する。メッセージ生成部99は、判定部91から不一致信号が入力されると、背景が不一致であることを示す第2のメッセージを生成し、生成された第2のメッセージを表示制御部63に出力する。表示制御部63は、第1のメッセージまたは第2のメッセージが入力されると、第1のメッセージまたは第2のメッセージをLCD23に表示する。
When the coincidence signal is input from the
次に動きベクトル決定部89について説明する。動きベクトル決定部89は、代表点マッチング法を用いて動きベクトルを決定する。代表点マッチング法とは、参照背景領域中の固定の複数の代表点の画素値と、対象背景領域中の代表点を含む検出エリア内のサンプリング点の画素値とを比較し、その差がもっとも少ない相関性の高いサンプリング点を求め、このサンプリング点と代表点との位置の差(偏移)を動きベクトルとして特定するものである。
Next, the motion
代表点マッチング法を具体的に説明する。図4は、撮像エリアの一例を示す図である。図4を参照して、撮像エリアは所定範囲の映像エリアが形成されており、この映像エリア内には、4個の検出ブロックA、B、CおよびDが設けられている。さらに、検出ブロックA〜Dそれぞれは、16個の検出エリアに区分されている。 The representative point matching method will be specifically described. FIG. 4 is a diagram illustrating an example of an imaging area. Referring to FIG. 4, a predetermined range of video area is formed in the imaging area, and four detection blocks A, B, C, and D are provided in this video area. Further, each of the detection blocks A to D is divided into 16 detection areas.
図5は、検出エリアの一例を示す図である。図5を参照して、検出エリアには、複数のサンプリング点が存在し、複数のサンプリング点のうちの1つが代表点として定められている。 FIG. 5 is a diagram illustrating an example of the detection area. Referring to FIG. 5, there are a plurality of sampling points in the detection area, and one of the plurality of sampling points is defined as a representative point.
図6は、動きベクトル決定部の詳細な構成の一例を示す図である。図6を参照して、動きベクトル決定部89は、相関値演算部121と、累積加算部122と、最小値検出部123と、平均値算出部124と、動きベクトル発生部125とを含む。
FIG. 6 is a diagram illustrating an example of a detailed configuration of the motion vector determination unit. Referring to FIG. 6, motion
対象背景領域および参照背景領域は、相関値演算部121に入力される。相関値演算部121は、対象背景領域の画素値と参照背景領域の画素値との差の絶対値、すなわち代表点と検出エリア内における代表点に対して偏移したサンプリング点との画素の相関値を演算する。相関値演算部121は、累積加算部122において、検出ブロック内の代表点に対して同一偏移を有するサンプリング点ごとに相関値を累積加算する。相関値演算部121は、この累積加算を4個の検出ブロックごとに行う。
The target background area and the reference background area are input to the correlation
累積加算部122は、検出ブロックごとサンプリング点ごとに累積加算した相関値を相関累積値として、最小値検出部123および平均値算出部124に出力する。最小値検出部123は、相関累積値が最小のサンプリング点の位置およびその最小値を検出する。また、平均値算出部124は、相関累積値の平均を算出する。そして、求められた最小位置、最小値及び平均値は、動きベクトル発生部125に入力される。
The
動きベクトル発生部125は各検出ブロック内の相関累積値の最小値が所定のしきい値よりも大きい検出ブロックおよび最小値/平均値が所定のしきい値よりも小さい検出ブロックから検出された動きベクトルを信頼性の低いものとして除去し、残りのものから1個の動きベクトルを特定する。
The motion
図7は、第1の実施の形態における撮像処理の流れの一例を示すフローチャートである。撮像処理は、制御部11がEEPROM25に記憶された撮像支援プログラムを実行することにより、制御部11により実行される処理である。図7を参照して、制御部11は、設定されている撮像モードによって処理を分岐する(ステップS01)。撮像モードが直前画像参照モードに設定されているならば、処理をステップS02に進めるが、撮像モードが過去画像参照モードに設定されているならば、処理をステップS03に進める。
FIG. 7 is a flowchart illustrating an example of a flow of imaging processing according to the first embodiment. The imaging process is a process executed by the
ステップS02においては、直前に撮像された画像を取得し、処理をステップS06に進める。EEPROM25に記憶されている画像データ101のうち最後に記憶された画像データを取得する。
In step S02, the image captured immediately before is acquired, and the process proceeds to step S06. The image data stored last in the
ステップS03においては、EEPROM25に記憶されている画像データ101のファイル名一覧をLCD23に表示する。次のステップS04においては、ファイル名を選択する指示を受け付けるまで待機状態となり(ステップS04でNO)、ファイル名を選択する指示を受け付けると(ステップS04でYES)、処理をステップS05に進める。ステップS05においては、ステップS04において選択されたファイル名で特定される画像データを取得し、処理をステップS06に進める。
In step S03, a list of file names of the
ステップS06においては、処理がステップS02から進む場合、ステップS02において取得された画像データを参照画像に設定する。一方、処理がステップS05から進む場合、ステップS04においてユーザにより選択された画像データを参照画像に設定する。そして、ステップS06において設定された参照画像から顔領域を検出し(ステップS07)、検出された顔領域に基づいて参照画像のうちで主要被写体が表された参照被写体領域を予測する(ステップS08)。そして、参照画像のうちからステップS08において予測された参照被写体領域を除いた領域を参照背景領域として抽出する(ステップS09)。 In step S06, when the process proceeds from step S02, the image data acquired in step S02 is set as a reference image. On the other hand, when the process proceeds from step S05, the image data selected by the user in step S04 is set as a reference image. Then, a face area is detected from the reference image set in step S06 (step S07), and a reference subject area in which the main subject is represented in the reference image is predicted based on the detected face area (step S08). . Then, an area excluding the reference subject area predicted in step S08 is extracted as a reference background area from the reference image (step S09).
ステップS10においては、対象画像を取得し、処理をステップS11に進める。イメージセンサ19が所定時間間隔で出力する画像データを対象画像として設定する。そして、取得された対象画像から顔領域を検出し(ステップS11)、検出された顔領域に基づいて対象画像のうちで主要被写体が表された対照被写体領域を予測する(ステップS12)。そして、対象画像うちからステップS12において予測された対象被写体領域を除いた領域を対象背景領域として抽出する(ステップS13)。
In step S10, the target image is acquired, and the process proceeds to step S11. Image data output by the
ステップS14においては、動きベクトル算出処理を実行し、処理をステップS15に進める。動きベクトル算出処理は、上述した代表点マッチング法でステップS08において抽出された参照背景領域と、ステップS12において抽出された対象背景領域とから動きベクトルを算出する処理である。 In step S14, a motion vector calculation process is executed, and the process proceeds to step S15. The motion vector calculation process is a process of calculating a motion vector from the reference background region extracted in step S08 by the representative point matching method described above and the target background region extracted in step S12.
ステップS15においては、ステップS14において算出された動きベクトルのスカラー量がしきい値T1以下であるか否かを判断する。動きベクトルのスカラー量がしきい値T1以下ならば処理をステップS16に進めるが、そうでなければ処理をステップS18に進める。 In step S15, it is determined whether or not the scalar quantity of the motion vector calculated in step S14 is equal to or less than a threshold value T1. If the scalar quantity of the motion vector is equal to or smaller than threshold value T1, the process proceeds to step S16; otherwise, the process proceeds to step S18.
ステップS16においては、背景が一致していることを示す第1のメッセージを生成し、生成された第1のメッセージをLCD23に表示する。次のステップS17においては、第1の音をスピーカ31に発生させ、処理をステップS23に進める。
In step S16, a first message indicating that the backgrounds match is generated, and the generated first message is displayed on the
ステップS18においては、背景が不一致であることを示す第2のメッセージを生成し、生成された第2のメッセージをLCD23に表示する。次のステップS19においては、第2の音をスピーカ31に発生させる。第2の音は、第1の音と周波数が異なる。
In
ステップS20においては、ステップS14において算出された動きベクトルのスカラー量に基づいて透過率U1を算出する。そして、算出された透過率U1を用いて、ステップS09において抽出された参照背景領域から透過画像を生成し(ステップS21)、生成された透過画像をスルー画像に重畳してLCD23に表示し(ステップS22)、処理をステップS23に進める。 In step S20, the transmittance U1 is calculated based on the scalar quantity of the motion vector calculated in step S14. Then, using the calculated transmittance U1, a transmission image is generated from the reference background region extracted in step S09 (step S21), and the generated transmission image is superimposed on the through image and displayed on the LCD 23 (step S21). S22), the process proceeds to step S23.
ステップS23においては、シャッタボタン35Aが全押しされたか否かを判断する。シャッタボタン35Aが全押しされたならば処理をステップS24に進めるが、そうでなければ処理をステップS10に戻す。
In step S23, it is determined whether or not the
ステップS24においては、静止画を撮像する。次のステップS25においては、決定ボタンが押下されたか否かを判断する。決定ボタンが押下されたならば処理をステップS26に進めるが、そうでなければ処理をステップS10に戻す。ステップS26においては、ステップS23において撮像された静止画を圧縮し、EEPROM25に記憶する。次のステップS27においては、撮像の終了指示を受け付けたか否かを判断する。撮像の終了指示を受け付けたならば、撮像処理を終了するが、そうでなければ処理をステップS01に戻す。
In step S24, a still image is captured. In the next step S25, it is determined whether or not the enter button has been pressed. If the determination button is pressed, the process proceeds to step S26. If not, the process returns to step S10. In step S26, the still image captured in step S23 is compressed and stored in the
<変形例>
第1の実施の形態におけるデジタルスチルカメラ1は、対象画像の背景領域と参照画像の背景領域とのずれ量を検出するために、代表点マッチング法を利用して動きベクトルを算出するようにした。変形例におけるデジタルスチルカメラ1は、比較部87を比較部87Aに変更して、代表点マッチング法とは異なる方法で動きベクトルを算出するようにしたものである。以下、第1の実施の形態におけるデジタルスチルカメラ1と異なる部分を主に説明する。
<Modification>
The digital
図8は、変形例における比較部の構成の一例を示す図である。図8を参照して、比較部87Aは、対象特徴点抽出部111と、参照特徴点抽出部113と、動きベクトル決定部89Aと、判定部91と、を含む。なお、図2に示した機能と同一の機能には同じ符号を付し、ここでは説明を繰り返さない。
FIG. 8 is a diagram illustrating an example of the configuration of the comparison unit in the modification. Referring to FIG. 8,
対象特徴点抽出部111は、対象背景領域における特徴点を対象特徴点として抽出し、抽出された対象特徴点を動きベクトル決定部89Aに出力する。特徴点は、画像中で特徴的な形状または色を有する点であり、例えば、画素値が所定の値以上の画素、画像中に占める割合が所定の値以下の色を有する画素、特徴的な形状、例えば、輪郭線等を構成する画素である。なお、特徴点は、1つの画素に限らず、同じ特徴を有する複数の画素の集合からなる特徴領域としてもよい。さらに、特徴点は、画像中の1つに限らず、複数を抽出するのが好ましい。対象特徴点抽出部111は、対象背景領域抽出部85から入力された対象背景領域に存在する特徴点を対象特徴点として抽出し、抽出された対象特徴点を参照特徴点抽出部113および動きベクトル決定部89Aに出力する。
The target feature
参照特徴点抽出部113は、参照背景領域抽出部77から参照背景領域が入力され、対象特徴点抽出部111から対象特徴点が入力される。参照特徴点抽出部113は、対象特徴点と同じ特徴を有する特徴点を参照特徴点として参照背景領域から抽出し、抽出された参照特徴点を動きベクトル決定部89Aに出力する。
The reference feature
動きベクトル決定部89Aは、対象特徴点抽出部111から対象特徴点が入力され、参照特徴点抽出部113から参照特徴点が入力される。動きベクトル決定部89Aは、対象特徴点から参照特徴点に向かう動きベクトルを算出し、算出された動きベクトルを判定部91に出力する。
The motion
図9は、第1の実施の形態の変形例における動きベクトル算出処理の流れの一例を示したフローチャートである。動きベクトル算出処理は、図7に示したステップS14において実行される処理である。図9を参照して、ステップS31においては、図7のステップS13において抽出された対象背景領域から対象特徴点を抽出する。 FIG. 9 is a flowchart showing an example of the flow of motion vector calculation processing in the modification of the first embodiment. The motion vector calculation process is a process executed in step S14 shown in FIG. Referring to FIG. 9, in step S31, target feature points are extracted from the target background area extracted in step S13 of FIG.
次のステップS32においては、図7のステップS09において抽出された参照背景領域からステップS31において抽出された対象特徴点と同じ特徴を有する特徴点を参照特徴点として抽出する。ステップS33においては、ステップS31において抽出された対象特徴点からステップS32において抽出された参照特徴点へ向かう動きベクトルを算出し、処理を終了する。 In the next step S32, a feature point having the same feature as the target feature point extracted in step S31 is extracted as a reference feature point from the reference background region extracted in step S09 in FIG. In step S33, a motion vector from the target feature point extracted in step S31 toward the reference feature point extracted in step S32 is calculated, and the process ends.
<第2の実施の形態>
第1の実施の形態におけるデジタルスチルカメラ1は、動きベクトルを算出して、対象画像の背景と参照画像の背景とが一致しているか否かを判断するようにした。第2の実施の形態におけるデジタルスチルカメラ1は、2つの画像の差分に基づいて、2つの画像の背景が一致しているか否かを判断するようにしたものである。以下、第1の実施の形態におけるデジタルスチルカメラ1と異なる部分を主に説明する。
<Second Embodiment>
The digital
図10は、第2の実施の形態におけるデジタルスチルカメラが備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示す機能ブロック図である。図10を参照して、図2に示す機能ブロック図と異なる点は、比較部87が比較部87Bに変更された点、透過画像生成部95が透過画像生成部95Aに変更された点である。その他の機能は図2に示した機能と同じなのでここでは説明を繰り返さない。
FIG. 10 is a functional block diagram illustrating an example of an outline of functions of a control unit included in the digital still camera according to the second embodiment, together with data stored in the EEPROM. Referring to FIG. 10, the difference from the functional block diagram shown in FIG. 2 is that
比較部87Bは、背景差分算出部115と、判定部91Aとを含む。背景差分算出部115は、対象被写体領域予測部83から対象被写体領域が入力され、対象背景領域抽出部85から対象背景領域が入力され、参照被写体領域予測部75から参照被写体領域が入力され、参照背景領域抽出部77から参照背景領域が入力される。背景差分算出部115は、参照背景領域から対象被写体領域を除いた参照背景差分領域を抽出し、対象背景領域から参照被写体領域を除いた対象背景差分領域を抽出する。参照背景差分領域は、参照画像のうち参照被写体領域および対象被写体領域のいずれでもない領域である。対象背景差分領域は、対象画像のうち参照被写体領域および対象被写体領域のいずれでもない領域である。背景差分算出部115は、参照背景差分領域と対象背景差分領域との差分D1を算出し、算出された差分D1を判定部91Aに出力する。
判定部91Aは、背景差分算出部115から入力される差分D1を所定のしきい値T2と比較し、差分D1が所定のしきい値T2以下ならば、背景が一致していると判定し、差分D1が所定のしきい値T2より大きければ、背景が一致していないと判定する。判定部91Aは、背景が一致していると判定する場合、一致信号を通知部93に出力し、背景が一致していないと判定する場合、不一致信号と差分とを通知部93に出力する。
The
透過画像生成部95Aは、参照背景領域抽出部77から参照背景領域が入力される。透過画像生成部95Aは、判定部91Aから不一致信号が入力される場合、不一致信号とともに入力される差分に応じた透過率を決定し、決定された透過率で参照画像の参照背景領域を透明化処理した透過画像を生成する。透過画像生成部95Aは、生成された透過画像を表示制御部63に出力する。表示制御部63は、透過画像生成部95Aから透過画像が入力される場合、撮像制御部61から入力される画像データの画像に透過画像を合成した画像をLCD23に表示する。
The transparent
図11は、第2の実施の形態における撮像処理の流れの一例を示すフローチャートである。撮像処理は、制御部11AがEEPROM25に記憶された撮像支援プログラムを実行することにより、制御部11Aにより実行される処理である。図11を参照して、図7に示した撮像処理と異なる点は、ステップS14がステップS41〜ステップS43に置き換えられた点、ステップS15がステップS15Aに変更された点およびステップS20がステップS20Aに変更された点である。その他の処理は、図7に示した処理と同じなのでここでは説明を繰り返さない。
FIG. 11 is a flowchart illustrating an example of a flow of imaging processing according to the second embodiment. The imaging process is a process executed by the
ステップS41においては、ステップS09において抽出された参照背景領域からステップS12において予測された対象被写体領域を除いた領域を参照背景差分領域として抽出する。次のステップS42においては、ステップS13において抽出された対象背景領域からステップS08において予測された参照被写体領域を除いた領域を対象背景差分領域として抽出する。そして、ステップS41において抽出された参照背景差分領域とステップS42において抽出された対象背景差分領域の差分D2を算出する(ステップS43)。 In step S41, an area obtained by removing the target subject area predicted in step S12 from the reference background area extracted in step S09 is extracted as a reference background difference area. In the next step S42, an area obtained by removing the reference subject area predicted in step S08 from the target background area extracted in step S13 is extracted as the target background difference area. Then, a difference D2 between the reference background difference area extracted in step S41 and the target background difference area extracted in step S42 is calculated (step S43).
次のステップS15Aにおいては、ステップS43において算出された差分D1がしきい値T2以下であるか否かを判断する。差分D1がしきい値T2以下ならば処理をステップS16に進めるが、そうでなければ処理をステップS18に進める。 In the next step S15A, it is determined whether or not the difference D1 calculated in step S43 is equal to or less than a threshold value T2. If difference D1 is equal to or smaller than threshold value T2, the process proceeds to step S16; otherwise, the process proceeds to step S18.
ステップS20Aにおいては、ステップS43において算出された差分D1に基づいて透過率U2を算出する。そして、算出された透過率U2を用いて、ステップS41において抽出された参照背景差分領域から透過画像を生成し(ステップS21)、生成された透過画像をスルー画像に重畳してLCD23に表示し(ステップS22)、処理をステップS23に進める。 In step S20A, the transmittance U2 is calculated based on the difference D1 calculated in step S43. Then, using the calculated transmittance U2, a transmission image is generated from the reference background difference area extracted in step S41 (step S21), and the generated transmission image is superimposed on the through image and displayed on the LCD 23 ( Step S22), the process proceeds to step S23.
<変形例>
第2の実施の形態におけるデジタルスチルカメラ1は、参照背景差分領域および対象背景差分領域の差分D1から対象画像の背景と参照画像の背景とが一致しているか否かを判断するようにした。変形例におけるデジタルスチルカメラ1は、差分D1に加えて、参照画像の被写体領域と対象画像の被写体領域との差分D2を考慮して対象画像の背景領域と参照画像の背景領域とのずれ量を検出するようにした。以下、第2の実施の形態におけるデジタルスチルカメラ1と異なる部分を主に説明する。
<Modification>
The digital
図12は、第2の実施の形態の変形例におけるデジタルスチルカメラが備える制御部の機能の概要の一例をEEPROMに記憶されるデータとともに示す機能ブロック図である。図12を参照して、図10に示す機能ブロック図と異なる点は、比較部87Bが比較部87Cに変更された点である。その他の機能は図10に示した機能と同じなのでここでは説明を繰り返さない。
FIG. 12 is a functional block diagram illustrating an example of an outline of functions of a control unit included in the digital still camera according to the modification of the second embodiment, together with data stored in the EEPROM. Referring to FIG. 12, the difference from the functional block diagram shown in FIG. 10 is that
比較部87Cは、背景差分算出部115と、被写体差分算出部117と、重付差分算出部119と、判定部91Aとを含む。背景差分算出部115については上述したので、ここでは説明を繰り返さない。
The
被写体差分算出部117は、対象被写体領域予測部83から対象被写体領域が入力され、参照被写体領域予測部75から参照被写体領域が入力される。被写体差分算出部117は、対象被写体領域と参照被写体領域とが重なる被写体の領域を特定し、特定された被写体の領域の差分D2を算出する。被写体差分算出部117は、算出された被写体の領域の差分D2を重付差分算出部119に出力する。
The subject
重付差分算出部119は、被写体差分算出部117から入力された被写体領域の差分D2と背景差分算出部115から入力された背景領域の差分D1とに基づいて、重付差分DWを算出する。重付差分DWは、背景領域の差分D1をW1倍した値と被写体の領域の差分D2をW2倍した値との和である。重み付け係数W1は「10」、重み付け係数W2は「3」が好ましい。重付差分算出部119は、算出された重付差分DWを判定部91Aに出力する。
The weight
判定部91Aは、背景差分算出部115から入力される重付差分DWを所定のしきい値T3と比較し、重付差分DWが所定のしきい値T3以下ならば、背景が一致していると判定し、重付差分DWが所定のしきい値T3より大きければ、背景が一致していないと判定する。判定部91Aは、背景が一致していると判定する場合、一致信号を通知部93に出力し、背景が一致していないと判定する場合、不一致信号と差分とを通知部93に出力する。
The
図13は、第2の実施の形態の変形例における撮像処理の流れの一例を示すフローチャートである。図13を参照して、図11に示した撮像処理と異なる点は、ステップS15AがステップS15Bに変更された点、ステップS43とステップS15Aとの間にステップS51およびステップS52が追加された点、およびステップS20AがステップS20Bに変更された点である。その他の処理は、図11に示した処理と同じなのでここでは説明を繰り返さない。 FIG. 13 is a flowchart illustrating an example of the flow of an imaging process in a modification of the second embodiment. Referring to FIG. 13, the difference from the imaging process shown in FIG. 11 is that step S15A is changed to step S15B, step S51 and step S52 are added between step S43 and step S15A, And step S20A is the point changed to step S20B. Other processing is the same as the processing shown in FIG. 11, and therefore description thereof will not be repeated here.
ステップS51においては、ステップS08において予測された参照被写体領域とステップS12において予測された対象被写体領域とが重なる領域の差分D2を算出する。そして、ステップS43において算出された差分D1と、ステップS51において算出された差分D2とから重付差分DWを算出する(ステップS52)。重付差分DWは、差分D1に重み付け係数W1を掛けた値と差分D2に重み付け係数W2を掛けた値との和である。 In step S51, a difference D2 between the regions where the reference subject region predicted in step S08 and the target subject region predicted in step S12 overlap is calculated. Then, a weighting difference DW is calculated from the difference D1 calculated in step S43 and the difference D2 calculated in step S51 (step S52). The weighting difference DW is the sum of a value obtained by multiplying the difference D1 by the weighting coefficient W1 and a value obtained by multiplying the difference D2 by the weighting coefficient W2.
次のステップS15Bにおいては、ステップS52において算出された重付差分DWがしきい値T3以下であるか否かを判断する。重付差分DWがしきい値T3以下ならば、処理をステップS16に進めるが、そうでなければ処理をステップS18に進める。 In the next step S15B, it is determined whether or not the weighting difference DW calculated in step S52 is equal to or less than a threshold value T3. If weighting difference DW is equal to or smaller than threshold value T3, the process proceeds to step S16; otherwise, the process proceeds to step S18.
ステップS20Bにおいては、ステップS52において算出された重付差分DWに基づいて透過率U3を算出し、処理をステップS21に進める。ステップS21においては、透過率U3を用いて、ステップS41において抽出された参照背景差分領域から透過画像を生成し、処理をステップS22に進める。 In step S20B, transmittance U3 is calculated based on the weighting difference DW calculated in step S52, and the process proceeds to step S21. In step S21, a transmission image is generated from the reference background difference area extracted in step S41 using the transmittance U3, and the process proceeds to step S22.
なお、本実施の形態におけるデジタルスチルカメラ1は、撮像してEEPROM25に記憶された複数の画像データのうちから任意の画像データを参照画像とする例を示した。具体的には、撮像モードが直前画像参照モードに設定されている場合は、EEPROM25に最後に記憶された画像データを参照画像とし、撮像モードが過去画像参照モードに設定されている場合、EEPROM25に記憶されている画像データ101のうちユーザにより選択された画像データを参照画像とした。参照画像は、撮像してEEPROM25に記憶された画像データに限らず、外部から入力される画像データ、例えば、パーソナルコンピュータからダウンロードした画像データであってもよい。また、参照画像は、画像データそのものではなく、画像を拡大処理し、拡大された画像から切り出した画像であってもよい。
Note that the digital
さらに、本実施の形態においては、主要被写体として人物を撮像する例を示したが、主要被写体となり得るのは人物に限らず、ペットやぬいぐるみなどの玩具であってもよい。この場合、本実施の形態においては、参照画像または背景画像から被写体が表された被写体領域を抽出する場合に、顔が表された顔領域を抽出し、その顔領域から所定の関係にある範囲を被写体領域とした。主要被写体を、ペットやぬいぐるみなどの玩具にする場合は、ペットやぬいぐるみなどの玩具が有する特徴、例えば、その主要被写体が有する特徴的な色や形状などを画像中から抽出するようにすればよい。 Furthermore, in the present embodiment, an example is shown in which a person is imaged as a main subject, but a main subject is not limited to a person, and a toy such as a pet or a stuffed toy may be used. In this case, in the present embodiment, when extracting a subject area representing a subject from a reference image or a background image, the face area representing a face is extracted, and a range having a predetermined relationship from the face area is extracted. Was the subject area. When the main subject is a toy such as a pet or a stuffed toy, the characteristics of the toy such as a pet or a stuffed toy, for example, the characteristic color or shape of the main subject may be extracted from the image. .
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
<付記>
(1) 前記通知手段は、前記参照背景領域と前記対象背景領域とが一致していると判別された場合に通知する、請求項3、6および7のいずれかに記載の撮像装置。
<Appendix>
(1) The imaging device according to any one of claims 3, 6, and 7, wherein the notification unit notifies when it is determined that the reference background region and the target background region match.
1 デジタルスチルカメラ、11 制御部、11A 制御部、13 レンズ群、15 レンズ駆動部、19 イメージセンサ、21 コーデック、22 信号処理回路、23 LCD、25 EEPROM、27 SDRAM、29 カードI/F、29A メモリカード、31 スピーカ、35 操作部、35A シャッタボタン、35B モード設定ボタン、41 バッテリ、61 撮像制御部、63 表示制御部、65 操作受付部、67 記憶制御部、69 補助部、71 参照被写体領域抽出部、73 参照顔領域検出部、75 参照被写体領域予測部、77 参照背景領域抽出部、79 対象被写体領域抽出部、81 対象顔領域検出部、83 対象被写体領域予測部、85 対象背景領域抽出部、87,87A,87B,87C 比較部、89,89A 動きベクトル決定部、91,91A 判定部、93 通知部、95,95A 透過画像生成部、97 音発生部、99 メッセージ生成部、101 画像データ、111 対象特徴点抽出部、113 参照特徴点抽出部、115 背景差分算出部、117 被写体差分算出部、119 重付差分算出部、121 相関値演算部、122 累積加算部、123 最小値検出部、124 平均値算出部、125 動きベクトル発生部。
DESCRIPTION OF SYMBOLS 1 Digital still camera, 11 Control part, 11A Control part, 13 Lens group, 15 Lens drive part, 19 Image sensor, 21 Codec, 22 Signal processing circuit, 23 LCD, 25 EEPROM, 27 SDRAM, 29 Card I / F, 29A Memory card, 31 speaker, 35 operation unit, 35A shutter button, 35B mode setting button, 41 battery, 61 imaging control unit, 63 display control unit, 65 operation reception unit, 67 storage control unit, 69 auxiliary unit, 71 reference subject area Extraction unit, 73 Reference face region detection unit, 75 Reference subject region prediction unit, 77 Reference background region extraction unit, 79 Target subject region extraction unit, 81 Target face region detection unit, 83 Target subject region prediction unit, 85 Target background region extraction Part, 87, 87A, 87B, 87C comparison part, 89, 89A motion vector determination part 91, 91A determination unit, 93 notification unit, 95, 95A transmission image generation unit, 97 sound generation unit, 99 message generation unit, 101 image data, 111 target feature point extraction unit, 113 reference feature point extraction unit, 115 background difference calculation , 117 subject difference calculation unit, 119 weighted difference calculation unit, 121 correlation value calculation unit, 122 cumulative addition unit, 123 minimum value detection unit, 124 average value calculation unit, 125 motion vector generation unit.
Claims (14)
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出する参照背景領域抽出手段と、
前記撮像手段により出力された画像から背景が表された対象背景領域を抽出する対象背景領域抽出手段と、
前記参照背景領域と前記対象背景領域とを比較する比較手段と、
前記比較手段による比較結果を通知する通知手段と、を備えた撮像装置。 An imaging means for imaging an object and executing an imaging operation for outputting the image;
Reference background area extraction means for extracting a reference background area representing a background from a reference image based on an image selected from images stored in the storage means;
Target background area extraction means for extracting a target background area representing a background from the image output by the imaging means;
Comparison means for comparing the reference background region and the target background region;
An imaging device comprising: notification means for notifying a comparison result by the comparison means.
前記抽出された参照物体領域を含み、前記参照物体領域と所定の関係にある領域を参照被写体領域として抽出する参照被写体領域抽出手段と、を含み、
前記参照画像から前記参照被写体領域を除いた領域を参照背景領域として抽出し、
前記対象背景領域抽出手段は、前記撮像手段により出力された画像から物体が表された対象物体領域を抽出する対象物体領域抽出手段と、
前記抽出された対象物体領域を含み、前記対象物体領域と所定の関係にある領域を対象被写体領域として抽出する対象被写体領域抽出手段と、を含み、
前記撮像手段により出力された画像から前記対象被写体領域を除いた領域を対象背景領域として抽出する、請求項1に記載の撮像装置。 The reference background area extracting means extracts a reference object area extracting means for extracting a reference object area representing an object from the reference image;
A reference subject region extraction unit that includes the extracted reference object region and extracts a region having a predetermined relationship with the reference object region as a reference subject region,
An area excluding the reference subject area from the reference image is extracted as a reference background area,
The target background area extracting means is a target object area extracting means for extracting a target object area representing an object from the image output by the imaging means;
Target subject region extraction means that includes the extracted target object region, and extracts a region that has a predetermined relationship with the target object region as a target subject region,
The imaging apparatus according to claim 1, wherein an area obtained by removing the target subject area from the image output by the imaging unit is extracted as a target background area.
前記ずれ量が所定条件を満たすか否かを判別する判別手段と、を備え、
前記通知手段は、前記判別手段による判別の結果、前記ずれ量が所定条件を満たしていないと判別すると、前記ずれ量を通知する、請求項1または2に記載の撮像装置。 The comparison unit includes a shift amount detection unit that detects a shift amount between the reference background region and the target background region;
Determining means for determining whether or not the deviation amount satisfies a predetermined condition;
The imaging apparatus according to claim 1, wherein the notification unit notifies the shift amount when it is determined that the shift amount does not satisfy a predetermined condition as a result of determination by the determination unit.
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出する参照被写体域抽出手段と、
前記撮像手段により出力された画像から被写体が表された対象被写体領域を抽出する対象被写体域抽出手段と、
前記参照画像から前記参照被写体領域を除いた領域を参照背景領域として抽出する参照背景領域抽出手段と、
前記撮像手段により出力された画像から前記対象被写体領域を除いた領域を対象背景領域として抽出する対象背景領域抽出手段と、
前記参照背景領域と前記対象背景領域とを比較する比較手段と、
前記比較手段による比較結果を通知する通知手段と、を備えた撮像装置。 An imaging means for imaging an object and executing an imaging operation for outputting the image;
Reference subject area extracting means for extracting a reference subject area representing a subject from a reference image based on an image selected from images stored in the storage means;
Target subject area extraction means for extracting a target subject area in which a subject is represented from the image output by the imaging means;
A reference background area extracting means for extracting an area excluding the reference subject area from the reference image as a reference background area;
Target background area extraction means for extracting, as a target background area, an area obtained by removing the target subject area from the image output by the imaging means;
Comparison means for comparing the reference background region and the target background region;
An imaging device comprising: notification means for notifying a comparison result by the comparison means.
前記背景差分が所定条件を満たすか否かを判別する判別手段と、を含む請求項5に記載の撮像装置。 The comparison means calculates a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference calculation. Means,
The imaging apparatus according to claim 5, further comprising: a determination unit that determines whether the background difference satisfies a predetermined condition.
前記参照被写体領域と前記対象被写体領域とで共通する領域の差分を被写体差分として算出する被写体差分算出手段と、
前記背景差分と前記被写体差分とに重み付けした重付差分を算出する重付差分算出手段と、
前記重付差分が所定条件を満たすか否かを判別する判別手段と、を含む請求項5に記載の撮像装置。 The comparison means calculates a difference between a reference background difference area obtained by removing the target subject area from the reference background area and a target background difference area obtained by removing the reference subject area from the target background area as a background difference calculation. Means,
Subject difference calculation means for calculating a difference between regions common to the reference subject region and the target subject region as a subject difference;
A weighted difference calculating means for calculating a weighted difference weighted to the background difference and the subject difference;
The imaging device according to claim 5, further comprising: a determination unit that determines whether the weighting difference satisfies a predetermined condition.
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を含む撮像支援方法。 An imaging support method executed by an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference background region representing a background from a reference image based on an image selected from images stored in the storage means;
Extracting a target background area representing a background from the image output by the imaging means;
Comparing the reference background region and the target background region;
And a step of notifying a comparison result in the comparing step.
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、
前記撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、
前記参照画像から前記参照被写体領域および前記対象被写体領域のいずれでもない参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から前記参照被写体領域および前記対象被写体領域のいずれでもない対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を含む撮像支援方法。 An imaging support method executed by an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference subject area in which a subject is represented from a reference image based on an image selected from images stored in a storage unit;
Extracting a target subject area in which a subject is represented from an image output by the imaging means;
Extracting a reference background area that is neither the reference subject area nor the target subject area from the reference image;
Extracting a target background area that is neither the reference subject area nor the target subject area from the image output by the imaging means;
Comparing the reference background region and the target background region;
And a step of notifying a comparison result in the comparing step.
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から背景が表された参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から背景が表された対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を前記コンピュータに実行させる撮像支援プログラム。 An imaging support program that is executed by a computer that controls an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference background region representing a background from a reference image based on an image selected from images stored in the storage means;
Extracting a target background area representing a background from the image output by the imaging means;
Comparing the reference background region and the target background region;
An imaging support program for causing the computer to execute a step of notifying a comparison result in the comparing step.
記憶手段に記憶された画像のうちから選ばれた画像に基づく参照画像から被写体が表された参照被写体領域を抽出するステップと、
前記撮像手段により出力された画像から被写体が表された対象被写体領域を抽出するステップと、
前記参照画像から前記参照被写体領域および前記対象被写体領域のいずれでもない参照背景領域を抽出するステップと、
前記撮像手段により出力された画像から前記参照被写体領域および前記対象被写体領域のいずれでもない対象背景領域を抽出するステップと、
前記参照背景領域と前記対象背景領域とを比較するステップと、
前記比較するステップにおける比較結果を通知するステップと、を前記コンピュータに実行させる撮像支援プログラム。
An imaging support program that is executed by a computer that controls an imaging apparatus including an imaging unit that performs an imaging operation of imaging a subject and outputting an image,
Extracting a reference subject area in which a subject is represented from a reference image based on an image selected from images stored in a storage unit;
Extracting a target subject area in which a subject is represented from an image output by the imaging means;
Extracting a reference background area that is neither the reference subject area nor the target subject area from the reference image;
Extracting a target background area that is neither the reference subject area nor the target subject area from the image output by the imaging means;
Comparing the reference background region and the target background region;
An imaging support program for causing the computer to execute a step of notifying a comparison result in the comparing step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010124043A JP2011250351A (en) | 2010-05-31 | 2010-05-31 | Imaging apparatus, imaging support method, and imaging support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010124043A JP2011250351A (en) | 2010-05-31 | 2010-05-31 | Imaging apparatus, imaging support method, and imaging support program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011250351A true JP2011250351A (en) | 2011-12-08 |
Family
ID=45415001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010124043A Pending JP2011250351A (en) | 2010-05-31 | 2010-05-31 | Imaging apparatus, imaging support method, and imaging support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011250351A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130104070A (en) * | 2012-03-12 | 2013-09-25 | 삼성테크윈 주식회사 | Apparatus and method for processing monitoring image |
WO2021065934A1 (en) * | 2019-10-04 | 2021-04-08 | 日産化学株式会社 | Liquid crystal aligning agent, liquid crystal alignment film and liquid crystal display element using same |
-
2010
- 2010-05-31 JP JP2010124043A patent/JP2011250351A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130104070A (en) * | 2012-03-12 | 2013-09-25 | 삼성테크윈 주식회사 | Apparatus and method for processing monitoring image |
KR101864318B1 (en) * | 2012-03-12 | 2018-06-05 | 한화에어로스페이스 주식회사 | Apparatus and method for processing monitoring image |
WO2021065934A1 (en) * | 2019-10-04 | 2021-04-08 | 日産化学株式会社 | Liquid crystal aligning agent, liquid crystal alignment film and liquid crystal display element using same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4904243B2 (en) | Imaging apparatus and imaging control method | |
JP4656331B2 (en) | Imaging apparatus and imaging method | |
JP4898532B2 (en) | Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded | |
JP4645685B2 (en) | Camera, camera control program, and photographing method | |
JP5044321B2 (en) | Imaging apparatus and subject detection method | |
US20140211050A1 (en) | Imaging device, imaging method and recording medium | |
JP2005318554A (en) | Imaging device, control method thereof, program, and storage medium | |
JP2008054295A (en) | System for and method of photographing, and computer program | |
US9055212B2 (en) | Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user | |
US20100246968A1 (en) | Image capturing apparatus, image processing method and recording medium | |
JP4891674B2 (en) | camera | |
JP5546691B2 (en) | Imaging apparatus, imaging method, and program | |
JP2008085737A (en) | Electronic camera | |
JP4306482B2 (en) | Red-eye image correction device, electronic camera, and red-eye image correction program | |
JP2006025311A (en) | Imaging apparatus and image acquisition method | |
JP4492273B2 (en) | Imaging apparatus and program | |
JP5367129B2 (en) | Imaging apparatus, control apparatus, and control method thereof | |
JP2013098935A (en) | Tracking apparatus and tracking method | |
JP2010161547A (en) | Composition selecting device and program | |
JP2011250351A (en) | Imaging apparatus, imaging support method, and imaging support program | |
JP5858658B2 (en) | Imaging device | |
JP2014225763A (en) | Imaging apparatus, control method of the same, program, and storage medium | |
JP2009089083A (en) | Age estimation photographing device and age estimation photographing method | |
JP5854861B2 (en) | Imaging device, control method thereof, and control program | |
JP5424827B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130404 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130607 |
|
A072 | Dismissal of procedure [no reply to invitation to correct request for examination] |
Free format text: JAPANESE INTERMEDIATE CODE: A072 Effective date: 20131001 |