JP5245604B2 - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP5245604B2 JP5245604B2 JP2008186861A JP2008186861A JP5245604B2 JP 5245604 B2 JP5245604 B2 JP 5245604B2 JP 2008186861 A JP2008186861 A JP 2008186861A JP 2008186861 A JP2008186861 A JP 2008186861A JP 5245604 B2 JP5245604 B2 JP 5245604B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing apparatus
- face
- pixel
- face portion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000006073 displacement reaction Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 description 36
- 230000008569 process Effects 0.000 description 29
- 239000002131 composite material Substances 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、顔検出機能を有する画像処理装置、およびこの画像処理装置に用いられるプログラムに関する。 The present invention relates to an image processing apparatus having a face detection function and a program used for the image processing apparatus.
従来、CCDやCMOS型の固体撮像素子を用いて被写体を撮像するデジタルカメラやデジタルビデオカメラ等の撮像装置が知られている。 2. Description of the Related Art Conventionally, an imaging device such as a digital camera or a digital video camera that captures an object using a CCD or CMOS type solid-state imaging device is known.
この撮像装置を用いて撮像された人物画像は、証明写真として利用される場合も多い。この場合には、人物の背景は無地であることが望ましいので、撮像する際に、背景が無地となる撮像場所を選ぶ必要があった。そこで、撮像場所となり得る条件を緩和するために、撮像された画像から背景部分を除いた人物を示す領域を抽出できる画像処理技術が望まれる。 A person image captured using this imaging apparatus is often used as an ID photo. In this case, since it is desirable that the background of the person is plain, it is necessary to select an imaging place where the background is plain when imaging. Therefore, in order to relax the conditions that can be an imaging location, an image processing technique that can extract an area indicating a person excluding a background portion from a captured image is desired.
ところで、撮像装置には、人物の顔を検出する機能を有するものが登場している。このような撮像装置は、例えば目や鼻や口等の部分を検出し、顔のおおよその位置や大きさを判別できる。しかしながら、人物の顔以外の部分や輪郭を判別することは難しいため、人物を示す領域を抽出する手段としては適さなかった。 By the way, what has the function to detect a person's face has appeared in the imaging device. Such an imaging device can detect the approximate position and size of the face by detecting parts such as eyes, nose and mouth. However, since it is difficult to discriminate parts and contours other than the person's face, it is not suitable as a means for extracting an area indicating a person.
このような状況にあって、例えば、特許文献1には、画像データ内の画素を明るさに基づいて数段階に量子化することにより、人物を示す領域を分離して抽出する方法が示されている。
しかしながら、特許文献1の方法は、人物を示す画素と背景を示す画素との間に明確な明るさの差異が必要であるため、明るさの差異がわずかな場合や、複雑な背景の場合等には、抽出精度が不安定となってしまう。したがって、撮像場所によっては、撮像された画像から背景部分を除いた人物を示す領域を抽出することが難しかった。
However, since the method of
そこで本発明は、撮像された画像から背景部分を除いた人物を示す領域を容易に抽出できる画像処理装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide an image processing apparatus that can easily extract a region indicating a person excluding a background portion from a captured image.
請求項1に記載の発明に係る画像処理装置は、同一の被写体を含み且つ背景の異なる第1画像および第2画像を取得する取得手段と、当該取得した第1画像および第2画像の中から、前記被写体の顔部分を検出する検出手段と、前記第1画像の顔部分と前記第2画像の顔部分との相対変位を測定する変位測定手段と、前記相対変位に基づき、前記第1画像を構成する画素と前記第2画像を構成する画素とを対応付ける対応付け手段と、前記対応付けられた画素同士を比較し、当該画素の画素値の差分が第1の所定値以上である場合には、当該画素を背景部分とし、当該画素の画素値の差分が第1の所定値未満である場合には、当該画素を非背景部分とする判別手段と、を備えることを特徴とする。
The image processing apparatus according to the invention of
請求項2に記載の発明に係る画像処理装置は、前記第1画像または前記第2画像のうち一方を選択する選択手段と、前記選択手段により選択された画像について前記判別手段により背景部分であると判別された画素の画素値を同じ値に設定する設定手段とをさらに備えることを特徴とする。
The image processing apparatus according to the invention of
請求項3に記載の発明に係る画像処理装置は、前記検出された顔部分の中心を決定し、当該顔部分の中心からの距離が第3の所定値以上である画素を、背景部分とし、当該顔部分の中心からの距離が第4の所定値以下である画素を、非背景部分とする第2判別手段をさらに備え、当該第2判別手段の判別対象を除いた領域について、前記判別手段を実行することを特徴とする。 The image processing apparatus according to the invention of claim 3 determines the center of the detected face part, and sets a pixel whose distance from the center of the face part is a third predetermined value or more as a background part, The discriminator further includes a second discriminating unit that uses a pixel whose distance from the center of the face portion is a fourth predetermined value or less as a non-background portion, and for the region excluding the discrimination target of the second discriminating unit. It is characterized by performing.
請求項4に記載の発明に係る画像処理装置は、前記第2判別手段は、前記顔部分の向きに基づいて、前記被写体の前記顔部分の中心から見た首方向に対する見込み角が、所定の角度の範囲である人体の胴体部分が含まれると想定される範囲については判別対象から除外することを特徴とする。 In the image processing apparatus according to the fourth aspect of the present invention, the second determination unit has a predetermined angle of view with respect to a neck direction viewed from the center of the face part of the subject based on an orientation of the face part. A range that is assumed to include a torso portion of a human body that is an angle range is excluded from the discrimination target.
請求項5に記載の発明に係る画像処理装置は、前記第1画像の顔部分の特徴量と前記第2画像の顔部分の特徴量とが大きく異なる場合に、警告を出力する警告手段をさらに備えることを特徴とする。 The image processing apparatus according to claim 5 further includes warning means for outputting a warning when the feature amount of the face portion of the first image and the feature amount of the face portion of the second image are greatly different. It is characterized by providing.
請求項6に記載の発明に係る画像処理装置は、前記警告手段は、前記第1画像の顔部分の特徴量と前記第2画像の顔部分の特徴量とが大きく異なる場合に、前記第2画像の顔部分の特徴量に基づいて、前記第2画像の顔部分の特徴量を前記第1画像の顔部分の特徴量に近似させるための前記第2画像の顔部分の位置、大きさ、および向きのうち少なくとも1つを報知することを特徴とする。 In the image processing apparatus according to the sixth aspect of the present invention, when the warning means has a feature quantity of the face portion of the first image greatly different from a feature quantity of the face portion of the second image, the second means Based on the feature amount of the face portion of the image, the position and size of the face portion of the second image for approximating the feature amount of the face portion of the second image to the feature amount of the face portion of the first image; And at least one of the directions is notified.
請求項7に記載の発明に係る画像処理装置は、前記取得手段は、前記第1画像の顔部分の特徴量と前記第2画像の顔部分の特徴量とが近似しない場合、新たに画像を取得し、当該新たな画像を前記第2画像とすることを特徴とする。 The image processing apparatus according to claim 7, wherein the acquisition unit newly creates an image when the feature quantity of the face portion of the first image and the feature quantity of the face portion of the second image do not approximate. The new image is acquired and used as the second image.
請求項8に記載の発明に係る画像処理装置は、前記取得手段は、第1画像群として被写体を含み同様な背景の複数の画像と第2画像群として被写体を含み第1画像群と異なる背景の複数の画像とを取得し、前記取得した各画像群の中から1つずつ選択し、組合せを複数生成し、当該複数の組合せのそれぞれについて、前記顔部分の相関性が最も高い組合せを、前記第1画像および前記第2画像として決定する決定手段をさらに備えることを特徴とする。 The image processing apparatus according to an eighth aspect of the invention is characterized in that the acquisition unit includes a subject as a first image group and includes a plurality of similar background images and a subject as a second image group and a background different from the first image group. A plurality of images, selecting one image from each of the acquired image groups, generating a plurality of combinations, for each of the plurality of combinations, the combination having the highest correlation of the face part, The image processing apparatus further includes a determining unit that determines the first image and the second image.
請求項9に記載の発明に係る画像処理装置は、前記被写体の顔部分に対する合焦度を測定する測定手段をさらに備え、前記検出手段は、前記測定手段により測定された合焦度を、前記第1画像および第2画像の顔部分の特徴量として検出することを特徴とする。 The image processing apparatus according to claim 9 further includes a measurement unit that measures a degree of focus on the face portion of the subject, and the detection unit uses the degree of focus measured by the measurement unit as the degree of focus. It is detected as a feature amount of the face portion of the first image and the second image .
請求項10に記載の発明に係る画像処理装置は、前記検出した顔部分の特徴量に基づいて、前記取得した第1画像および第2画像の非背景部分を推定する推定手段と、前記顔部分を位置合わせすると共に、前記推定手段の推定結果に基づいて、前記第1画像の顔部分以外の非背景部分と、前記第2画像の顔部分以外の非背景部分と、を位置合わせして、当該2つの位置合わせ結果に基づいて、前記第1画像を構成する画素と前記第2画像を構成する画素とを対応付ける位置合わせ手段と、をさらに備えることを特徴とする。 The image processing apparatus according to the invention of claim 10, the estimation means on the basis of the feature amount of the detected face parts, to estimate the non-background portion of the first image and the second image above acquired, before Kikao And aligning the non-background portion other than the face portion of the first image and the non-background portion other than the face portion of the second image based on the estimation result of the estimating means. The image forming apparatus further includes alignment means for associating the pixels constituting the first image with the pixels constituting the second image based on the two alignment results.
請求項11に記載の発明に係る画像処理装置は、ユーザにより前記第1画像の非背景部分または前記第2画像の非背景部分が選択されると、当該選択された画像の非背景部分を記憶する記憶手段をさらに備えることを特徴とする。 The image processing apparatus according to claim 11 stores a non-background portion of the selected image when the user selects a non-background portion of the first image or a non-background portion of the second image. It further comprises storage means for performing.
請求項12に記載の発明に係るプログラムは、コンピュータを、同一の被写体を含み且つ背景の異なる第1画像および第2画像を取得する取得手段、当該取得した第1画像および第2画像の中から、前記被写体の顔部分を検出する検出手段、前記第1画像の顔部分と前記第2画像の顔部分との相対変位を測定する変位測定手段、前記相対変位に基づき、前記第1画像を構成する画素と前記第2画像を構成する画素とを対応付ける対応付け手段、前記対応付けられた画素同士を比較し、当該画素の画素値の差分が第1の所定値以上である場合には、当該画素を背景部分とし、当該画素の画素値の差分が第1の所定値未満である場合には、当該画素を非背景部分とする判別手段、として機能させる。 Program according to the invention of claim 12, computer, same subject unrealized and acquisition means for acquiring the first image and the second image different background, in the first image and the second image the acquired From the detection means for detecting the face portion of the subject, the displacement measuring means for measuring the relative displacement between the face portion of the first image and the face portion of the second image, the first image is based on the relative displacement. An associating means for associating the constituting pixels with the pixels constituting the second image, comparing the associated pixels with each other, and when the difference between the pixel values of the pixels is equal to or greater than a first predetermined value, When the pixel is the background portion and the difference between the pixel values of the pixel is less than the first predetermined value, the pixel functions as a non-background portion.
本発明によれば、撮像された画像から背景部分を除いた人物を示す領域を容易に抽出することができる。 According to the present invention, it is possible to easily extract a region indicating a person excluding a background portion from a captured image.
以下、本発明の実施形態を図面に基づいて説明する。なお、以下の実施形態の説明にあたって、同一構成要件については同一符号を付し、その説明を省略もしくは簡略化する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the embodiments, the same constituent elements are denoted by the same reference numerals, and the description thereof is omitted or simplified.
[第1実施形態]
図1は、本実施形態に係る画像処理装置としてのデジタルカメラ1の概略構成を示すブロック図である。このデジタルカメラ1は、画像データ内で人物の顔部分を検出する機能を備えたものであり、主として以下の各部を備える。
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a
すなわち、デジタルカメラ1は、撮影部2、CPU11、キー入力部12、顔検出部13、フラッシュメモリ14、表示部15、外部メモリ16、解像度変換部17、JPEG変換部18、およびSDRAM19を備える。
That is, the
ここで、撮影部2は、レンズを通した被写体を含む光学像をデジタル信号に変換し、SDRAM19に画像データ(第1画像、第2画像)として記憶する本発明の取得手段である。この撮影部2は、タイミングジェネレータ(TG)21、CCD駆動部22、CCD23、およびA/D変換部24を備える。
Here, the photographing
CPU11は、デジタルカメラ1の上記各部の制御、フラッシュメモリ14、外部メモリ16、SDRAM19等に記憶されたデータの操作、そして、本実施形態に係る画像データ内の背景部分を所定の画像に置換する処理等を行う。
The
すなわち、CPU11は、第1画像の顔部分と第2画像の顔部分との相対変位を測定する本発明の変位測定手段、相対変位に基づき第1画像を構成する画素と第2画像を構成する画素とを対応付ける本発明の対応付け手段、対応付けられた画素同士を比較して背景部分と非背景部分とを判別する本発明の判別手段、画素値の比較によらずに背景部分と非背景部分とを判別する本発明の第2判別手段、背景部分と判別された画素の画素値を所定の値(第2の所定値)に設定し、新たな画像を生成する本発明の設定手段、第1画像の顔部分の特徴量と第2画像の顔部分の特徴量とが大きく異なる場合に警告を出力する本発明の警告手段、およびユーザにより選択された画像の非背景部分を記憶する本発明の記憶手段である(処理の詳細は後述する)。
That is, the
また、CPU11は、被写体の顔部分に対する合焦度を測定する本発明の測定手段としても機能し、さらに、顔部分の特徴量に基づいて、非背景部分を推定する本発明の推定手段としても機能する。
The
キー入力部12は、電源キーや、デジタルカメラ1の基本の動作モードである記録モードと再生モード、あるいは本実施形態に係る証明写真モードとの切り替えを行うモード切替キー、MENUキー、シャッタキー等の複数キーを含む。シャッタキーは、ユーザが撮影予告を行うための半押し位置と、実際の撮影動作を指示するための全押し位置との2段階の操作が可能なハーフシャッタ機能を有する。以上のキー入力部12の各キーの操作状態は、CPU11により随時スキャンされる。
The key input unit 12 includes a power key, a mode switching key for switching between a recording mode and a playback mode, which are basic operation modes of the
顔検出部13は、外部メモリ16またはSDRAM19に記憶された画像データから、人物の顔部分を検出する本発明の検出手段である。具体的には、顔検出部13は、顔部分の位置、大きさ、向きのうち少なくとも1つを顔パラメータ(特徴量)として検出する。
The
フラッシュメモリ14は、記憶データの書き換えが可能な不揮発性メモリであり、CPU11で実行される各種のプログラムや、CPU11での処理に必要な各種データを記憶している。また、フラッシュメモリ14は、ユーザにより設定されたデジタルカメラ1の各種の機能に関する設定情報も記憶する。
The
表示部15は、液晶ディスプレイおよびこの液晶ディスプレイの駆動回路からなる。記録モードでは、SDRAM19に1フレーム分の画像データが格納される毎に、この画像データは、ビデオ信号に変換されて、表示部15においてスルー画像として表示される。そして、記録モードで撮影が実行されると、SDRAM19に一時記憶された画像データがJPEG変換部18においてJPEG方式により圧縮符号化された後、例えば各種のメモリカードにより構成される外部メモリ16に静止画ファイルとして記録される。
The
再生モードでは、上記外部メモリ16に記録された静止画ファイルは、ユーザの選択操作に応じて適宜読み出されて、JPEG変換部18において復号されてSDRAM19に画像データとして展開され、表示部15において静止画像として表示される。
In the reproduction mode, the still image file recorded in the
また、証明写真モードでは、撮影動作により2枚の画像データ(第1画像および第2画像)がSDRAM19に格納され、CPU11により、この2枚の画像データのうち少なくとも一方について、背景部分の画素の画素値を所定値(第2の所定値)に設定した新たな合成画像データが生成される。そして、生成された新たな合成画像データがJPEG変換部18においてJPEG方式により圧縮符号化された後、外部メモリ16に静止画ファイルとして記録される。
In the ID photo mode, two image data (first image and second image) are stored in the
ここで、表示部15は、第1画像の顔部分の特徴量と第2画像の顔部分の特徴量とが大きく異なる場合に、CPU11からの指令に基づいて警告を出力する本発明の警告手段である。
Here, the
解像度変換部17は、SDRAM19に記憶された画像データの解像度を変換する。この解像度が変換された画像データがビデオ信号に変換されることにより、表示部15において表示される画像が拡大または縮小される。
The
タイミングジェネレータ21は、タイミング信号を生成し、CCD駆動部22は、このタイミング信号に基づいて、駆動信号を生成する。CCD23は、CCD駆動部22から出力されるタイミング信号に基づいて、被写体の光学像を光電変換し撮像信号として出力する。A/D変換部24は、CCD2から出力された撮像信号をデジタル信号に変換し、画像データとしてSDRAM19に記憶する。
The
以下、CPU11の制御により実行されるデジタルカメラ1の処理の詳細について説明する。
Hereinafter, details of the processing of the
図2は、本実施形態に係る処理の概略を示す図である。まず、デジタルカメラ1により人物の顔を含めて第1画像(a)および第2画像(b)を撮影する。このとき、人物の背景は互いに異なる場所とし、画像上の人物の大きさや向き等は変わらないものとする。
FIG. 2 is a diagram showing an outline of processing according to the present embodiment. First, the first image (a) and the second image (b) including a person's face are photographed by the
CPU11は、この2枚の画像の双方の画像データから、顔検出部13により検出した顔部分の顔パラメータに基づいて、第1画像(a)の顔部分と第2画像(b)の顔部分とを位置合わせする。このことにより、CPU11は、2枚の画像データ間の相対変位量を算出し、第1画像を構成する画素と第2画像を構成する画素とを相対変位量により対応付ける。
The
続いてCPU11は、このように対応付けられた画素同士を比較し、この画素の画素値の差分が所定値(第1の所定値)以上である場合に、この画素を背景部分と判別し、この画素の画素値の差分が所定値(第1の所定値)未満である場合に、この画素を非背景部分(人物部分)と判別する。つまり、背景が互いに異なる2枚の画像データを用いれば、背景部分の対応する画素間で、その値は異なり、人物部分では同一あるいは類似するので、このように対応する画素の画素値を比較することにより、背景と非背景の領域を分離することができる。
Subsequently, the
そして、CPU11は、第1画像(a)または第2画像(b)の少なくとも一方について、背景部分であると判別された画素の画素値を所定の値(第2の所定値)に設定し、新たな画像(c)を生成する。これにより、画像(c)の背景部分は所定の色に塗りつぶされる。
Then, the
図3および図4は、本実施形態に係る処理の流れを示すフローチャートである。キー入力部12に設けられているモード切替キーが操作されて証明写真モードが設定されると、CPU11は、図3および図4に示すフローチャートの処理を実行するためのプログラムをフラッシュメモリ14から読み出す。CPU11は、このプログラムに従って、各種処理を実行する。
3 and 4 are flowcharts showing the flow of processing according to the present embodiment. When the ID photo mode is set by operating a mode switching key provided in the key input unit 12, the
まず、図3に示す撮影処理では、ユーザの操作に基づいて、CPU11の制御により、第1画像P1および第2画像P2が記録される。
First, the photographing processing shown in FIG. 3, based on the user, the control of the
ステップS101では、CPU11は、ユーザがシャッタキーを押下したことに応じて、撮影部2を制御し、第1画像P1を取得してSDRAM19に記録する。
In step S <b> 101, the
ステップS102では、CPU11は、ステップS101にて記録した第1画像P1に対して、顔検出部13により顔部分の検出を行い、位置、大きさ、向き等の顔パラメータを取得する。
In step S102,
ステップS103では、CPU11は、撮影部2から入れ替わり連続的して取得される第2画像の候補であるスルー画像に対して、ステップS102と同様に、顔検出部13により顔部分の検出を行い、顔パラメータを取得する。
In step S103, the
ステップS104では、CPU11は、ステップS103にて取得したスルー画像の顔パラメータと、ステップS102にて取得した第1画像の顔パラメータとが大きく異なり、所定の条件よりも乖離しているか否かを判別する。この判定がYESの場合はステップS105に移り、判定がNOの場合はステップS106に移る。
In step S104, the
ステップS105では、第1画像と第2画像の候補とで顔の位置、大きさ、向き等のいずれかが大きく異なっているので、CPU11は、ユーザに調整を促すために、表示部15により、例えば「1枚目の画像と顔部分が一致しません」といった警告を出力する。さらに、CPU11は、第2画像の顔パラメータを第1画像の顔パラメータに近似させるために、第2画像の顔パラメータの少なくとも1つの変更点を報知する。具体的には、CPU11は、ステップS104における所定の条件を満たすための顔パラメータの変更点として、例えば、「顔が近すぎます」や「左を向いてください」等の警告を出力する。
In step S105, since any of the face position, size, orientation, etc. is greatly different between the first image and the second image candidate, the
ユーザがこれらの警告表示に従って調整することにより、顔パラメータの乖離が改善される。なお、警告出力は、表示部15による表示出力に替えて、あるいはこの表示出力と共に、スピーカ(図示せず)による音声出力や、所定の警告内容を示すLED(Light Emitting Diode)の発光出力等であってよい。
When the user adjusts according to these warning displays, the deviation of the face parameters is improved. The warning output is, instead of or in addition to the display output by the
ステップS106では、CPU11は、ステップS103にて取得したスルー画像の顔パラメータが、ステップS102にて取得した第1画像の顔パラメータと所定以上の類似度で近似しているか否かを判定する。この判定がYESの場合は、第1画像とスルー画像との間で顔部分の位置合わせが可能なので、ステップS107に移る。一方、この判定がNOの場合は、第1画像とスルー画像との間で顔部分の位置合わせが難しく、背景部分を精度良く分離することができないため、ステップS103に戻って、第2画像の候補であるスルー画像を新たに取得する。
In step S106, the
ステップS107では、CPU11は、ステップS103にて取得したスルー画像を、第2画像P2として決定し、SDRAM19に記録する。
In step S <b> 107, the
次に、図4に示す画像合成処理は、図3の撮影処理に続いて実行され、CPU11の制御により、人物の背景部分を所定値に設定した新たな画像を生成する。以下、図5の説明図を適宜参照して説明する。
Next, the image composition process shown in FIG. 4 is executed following the photographing process shown in FIG. 3, and a new image in which the background portion of the person is set to a predetermined value is generated under the control of the
ステップS201では、CPU11は、第1画像P1から顔検出部13により人物(非背景部分)Cにおける顔部分を検出し、検出された顔部分の位置に基づいて顔部分の中心PF(m,n)を取得する(図5参照)。
In step S201,
ステップS202では、CPU11は、第2画像P2から顔検出部13により顔部分を検出する。
In step S202, the
ステップS203では、CPU11は、ステップS201およびステップS202の顔検出により検出された顔パラメータについて位置合わせを行うことにより、第1画像P1に対する第2画像P2の相対変位量(a,b)を算出する。
In step S203,
ステップS204では、CPU11は、ステップS201にて検出された顔部分の大きさに基づいて、この顔部分の外側を示す半径L1の円と、この顔部分に含まれる半径L2の円と、を設定する(図5参照)。
In step S204,
ステップS205では、CPU11は、第1画像P1における座標(x,y)の画素値であるD1と、第2画像P2における座標(x+a,y+b)の画素値であるD2と、を取得する。ここで、座標(x+a,y+b)は、座標(x,y)からステップS203にて算出された相対変位量(a,b)だけ変位した座標であり、第1画像P1と第2画像P2の各画素同士は、この相対変位量(a,b)により対応付けられる。
In step S205,
ステップS206では、CPU11は、P1(x,y)が半径L1の円外か否かを判定する。具体的には、条件[(x−m)2+(y−n)2<L1 2]を満たす場合はYESの判定となり、ステップS207に移る。一方、この条件を満たさない場合にはNOの判定となり、ステップS208に移る。
In step S206, the
ステップS207では、P1(x,y)が半径L1の円内にあるので、CPU11は、P1(x,y)が半径L2の円外か否かを判定する。具体的には、条件[(x−m)2+(y−n)2>L2 2]を満たす場合はYESの判定となり、ステップS209に移る。一方、この条件を満たさない場合にはNOの判定となり、領域B(図5参照)内の非背景部分と判断できるので、ステップS210に移る。
In step S207, since P 1 (x, y) is within the circle with the radius L 1 , the
ステップS208では、P1(x,y)が半径L1の円外にあるので、CPU11は、P1(x,y)が顔の中心位置PF(m,n)から見て首の方向であり、かつ、所定の角度θの範囲(図5参照)内であるか否かを判定する。ここで、首の方向としては、検出された顔部分の各構成要素の配置から首が存在するであろう方向を推定する。なお、この範囲は、人物の胴体部分が含まれると想定される範囲であり、例えば、顔部分の中心から見た首方向に対する見込み角が180度や120度等の範囲として、適宜設計されてよい。この判定がYESの場合は、P1(x,y)が首、肩、胴体等の非背景部分の可能性があるため、ステップS209に移る。一方、この判定がNOの場合は、P1(x,y)が領域A(図5参照)内にあり背景部分であると判断できるので、ステップS211に移る。
In step S208, since P 1 (x, y) is outside the circle having the radius L 1 , the
ステップS209では、P1(x,y)が領域A内でも領域B内でもなく、即座に背景部分か非背景部分かを判別できない座標であるため、CPU11は、画素値D1とD2とを比較し、差分が閾値R未満であるか否かを判定する。この判定がYESの場合はステップS210に移り、判定がNOの場合はステップS211に移る。
In step S209, since P 1 (x, y) is not in the area A or the area B and is a coordinate that cannot be immediately discriminated as the background portion or the non-background portion, the
ステップS210では、CPU11は、P1(x,y)が非背景部分であると判別し、画素値D1およびD2を、それぞれ合成画像1および2の画素値として、SDRAM19に記録する。
In step S210, the
ステップS211では、CPU11は、P1(x,y)が背景部分であると判別し、画素値D1およびD2を、背景用の画素値D3に置き換え、それぞれ合成画像1および2の画素値として、SDRAM19に記録する。
In step S211, the
ステップS212では、CPU11は、全ての画素に対して背景部分であるか非背景部分であるかの判別がなされ、合成画像1および2の画素値が記録されたか否かを判定する。なお、相対変位量(a,b)により対応付けられなかった画素については、背景部分であると判断し、背景用の画素値D3を合成画像1または2の画素値としてよい。この判定がYESの場合はステップS213に移り、判定がNOの場合はステップS205に戻って他の座標に関して処理を繰り返す。
In step S212, the
ステップS213では、CPU11は、SDRAM19に記録された合成画像1および2を表示部15に表示し、ユーザから、いずれの合成画像の非背景部分を使用するかの選択入力を受け付ける。
In step S213, the
ステップS214では、CPU11は、ステップS213にてユーザにより選択された合成画像1または2を、JPEG変換部18によりJPEG符号化する。
In step S214, the
ステップS215では、CPU11は、ステップS214にてJPEG符号化された画像データを、外部メモリ16に記録する。これにより、第1画像P1または第2画像P2における人物の背景部分を所定値に置き換えた新たな画像データが生成され記録される。
In step S215, the
以上のように、本実施形態によれば、2枚の画像における顔部分の顔パラメータを利用して位置合わせを行うので、背景の図柄によらず、背景と非背景との分離が容易となる。さらに、顔検出では、顔のおおよその形状しか知ることができないが、位置合わせを行った後の2枚の画像における対応する画素値を比較することにより、例えば髪の毛や首や肩等の顔以外の非背景部分を分離することができる。 As described above, according to the present embodiment, alignment is performed using the facial parameters of the face portions in the two images, so that the background and the non-background can be easily separated regardless of the background pattern. . Furthermore, in face detection, only the approximate shape of the face can be known, but by comparing the corresponding pixel values in the two images after alignment, for example, other than the face such as hair, neck or shoulder The non-background part of can be separated.
また、顔の中心位置と大きさから、領域Aおよび領域Bを設定し、画素値の比較を行うことなく背景と非背景の判別を行ったので、合成画像の生成に掛かる処理時間が短縮される。 In addition, the region A and the region B are set from the center position and size of the face, and the background and the non-background are discriminated without comparing the pixel values, so that the processing time required for generating the composite image is shortened. The
また、顔の向きから首の方向(胴体部分)を判定し、この方向の所定の領域を領域A(人物が含まれない領域)から除外したので、顔以外の胴体部分が領域A内となってしまうことによる背景部分の誤検出を抑制することができる。 Further, the direction of the neck (torso portion) is determined from the face direction, and a predetermined region in this direction is excluded from the region A (region not including a person), so the torso portion other than the face is within the region A. It is possible to suppress erroneous detection of the background portion due to the occurrence of the error.
また、2枚の画像間で顔パラメータが大きく異なる場合に警告を出力したので、位置合わせができずに背景と非背景との分離ができない状況を防止することができる。 Further, since the warning is output when the face parameter is greatly different between the two images, it is possible to prevent a situation in which the background cannot be separated and the background cannot be separated.
また、合成画像を2枚生成し、ユーザによる選択を可能とした。証明写真のように長く保存される画像を生成する場合には、ユーザはできるだけ良い表情の画像を生成したいので、本実施形態により、ユーザは、2枚のいずれか気に入った方を選択することができる。 In addition, two composite images are generated and can be selected by the user. When generating an image that is stored for a long time such as an ID photo, the user wants to generate an image with the best possible expression. Therefore, according to the present embodiment, the user can select one of the two favorite ones. it can.
なお、本実施形態では、顔検出による顔パラメータの比較により警告出力、あるいは、第2画像の決定を行ったが、これには限られない。例えば、CPU11は、被写体である顔部分に対する合焦度や焦点距離を測定し、この合焦度や焦点距離が乖離する場合に警告出力を行い、近似する場合に第2画像として決定してもよい。
In this embodiment, the warning output or the determination of the second image is performed by comparing face parameters by face detection. However, the present invention is not limited to this. For example, the
また、本実施形態では、顔パラメータが類似することにより自動的に第2画像を決定したが、これには限られない。例えば、顔パラメータによる位置合わせを行った後に、背景部分(例えば領域A)の画素値の差分が所定以上となり、かつ、非背景部分(例えば領域B)の画素値の差分が所定以下となった場合に、第2画像として決定して(シャッタを切って)もよい。このことにより、背景部分の画素値が乖離し、非背景部分の画素値が近似する2枚の画像データが選択されるので、精度良く背景と非背景とを分離することができる。 In the present embodiment, the second image is automatically determined due to similarity of the face parameters, but the present invention is not limited to this. For example, after performing alignment using face parameters, the difference in pixel values in the background portion (for example, region A) is greater than or equal to a predetermined value, and the difference in pixel values in the non-background portion (for example, region B) is less than or equal to the predetermined value. In this case, it may be determined as the second image (shutter is released). As a result, the image values of the background portion deviate from each other, and two pieces of image data that approximate the pixel values of the non-background portion are selected, so that the background and the non-background can be accurately separated.
また、本実施形態では、顔パラメータによる位置合わせを行ったが、これには限られない。例えば、顔以外の非背景部分(胴体部分)の位置合わせをさらに行ってもよい。具体的には、顔検出により検出した顔部分の顔パラメータに基づいて、所定の位置関係にある領域を非背景部分と推定し、この非背景部分と推定された領域に関してブロックマッチング等の、画素同士の比較による位置合わせを行う。このように複数の位置合わせ手法を併用することにより、CPU11は、精度良く位置合わせを行うことができる。
In the present embodiment, the position adjustment is performed using the face parameters, but the present invention is not limited to this. For example, you may further align non-background parts (torso part) other than a face. Specifically, based on the face parameters of the face portion detected by face detection, a region having a predetermined positional relationship is estimated as a non-background portion, and pixels such as block matching are estimated for the region estimated as the non-background portion. Perform alignment by comparing each other. In this way, by using a plurality of alignment methods in combination, the
また、本実施形態では、新たな画像データとして、合成画像を2枚生成したが、これには限られない。3枚以上の画像を取得し、合成画像を3枚以上生成してもよい。このことにより、ユーザは多くの顔画像の候補から、好みの一枚を選択することができる。 In this embodiment, two composite images are generated as new image data. However, the present invention is not limited to this. Three or more images may be acquired, and three or more composite images may be generated. As a result, the user can select one favorite image from many face image candidates.
また、本実施形態では、画素値の差分に基づいて背景か非背景かを判別したが、これには限られず、判別結果に対して補正を行ってもよい。具体的には、背景部分と判別された画素に囲まれて、非背景部分と判別された画素の領域が所定面積以内で存在する場合に、この所定面積以内の非背景部分と判別された画素を、背景部分として補正する。また、非背景部分と判別された画素に囲まれて、背景部分と判別された画素の領域が所定面積以内で存在する場合に、この所定面積以内の背景部分と判別された画素を、非背景部分として補正する。このことにより、背景と非背景とを誤って判別した画素を補正し、精度よく合成画像を生成できる可能性がある。 In the present embodiment, the background or the non-background is determined based on the pixel value difference. However, the present invention is not limited to this, and the determination result may be corrected. Specifically, when a region of a pixel determined to be a non-background portion is within a predetermined area surrounded by pixels determined to be a background portion, the pixel determined to be a non-background portion within the predetermined area Is corrected as a background portion. In addition, when the area of the pixel determined to be the background portion is within a predetermined area surrounded by the pixels determined to be the non-background portion, the pixel determined to be the background portion within the predetermined area is replaced with the non-background portion. Correct as part. As a result, there is a possibility that a pixel in which the background and the non-background are erroneously determined is corrected and a composite image can be generated with high accuracy.
[第2実施形態]
次に、本発明の第2実施形態を図面に基づいて説明する。本実施形態では、デジタルカメラ1の動作が、第1実施形態と異なる。すなわち、第1実施形態では、SDRAM19に記録された2枚の画像データに基づいて、新たな合成画像データを生成した。一方、本実施形態では、第1画像および第2画像のそれぞれに対して複数枚の候補画像を記録する。
[Second Embodiment]
Next, 2nd Embodiment of this invention is described based on drawing. In the present embodiment, the operation of the
ここで、CPU11は、3枚以上取得した画像の中から2枚を抽出して、第1画像および第2画像の組合せを複数生成し、当該複数の組合せのそれぞれについて、顔部分の相関性が最も高い組合せを、第1画像および第2画像として決定する決定手段として機能する。
Here, the
図6は、本実施形態に係る撮影処理の流れを示すフローチャートである。本処理は、第1実施形態の撮影処理(図3)に替えて実行され、画像合成処理(図4)へと続く。 FIG. 6 is a flowchart showing the flow of the photographing process according to the present embodiment. This process is executed instead of the shooting process (FIG. 3) of the first embodiment, and continues to the image composition process (FIG. 4).
ステップS301では、CPU11は、ユーザによりシャッタキーが押下されたか否かを判定する。CPU11は、この判定がYESになるまで待機し、判定がYESになると、第1画像を取得するためステップS302に移る。
In step S301, the
ステップS302では、CPU11は、撮影部2を制御し、第1画像の候補となる候補画像を取得してSDRAM19に記録する。
In step S <b> 302, the
ステップS303では、CPU11は、ステップS302にて記録した候補画像に対して、顔検出部13により顔部分の検出を行い、位置、大きさ、向き等の顔パラメータを取得する。
In step S303, the
ステップS304では、CPU11は、第1画像の候補として、所定の枚数を記録したか否かを判定する。この判定がYESの場合は、第1画像に対する候補画像の取得を終了してステップS305に移る。一方、この判定がNOの場合は、ステップS302に戻って次の候補画像を記録する。
In step S304, the
ステップS305では、CPU11は、ユーザによりシャッタキーが押下されたか否かを判定する。CPU11は、この判定がYESになるまで待機し、判定がYESになると、第2画像を取得するためステップS306に移る。なお、CPU11は、ユーザに対して、2度目のシャッタキーの押下を促すため、表示部15やLED等の表示手段により表示出力を行ったり、スピーカにより音声出力を行ったりすることが好ましい。
In step S305, the
ステップS306では、CPU11は、撮影部2を制御し、第2画像の候補となる候補画像を取得してSDRAM19に記録する。
In step S <b> 306, the
ステップS307では、CPU11は、ステップS306にて記録した候補画像に対して、顔検出部13により顔部分の検出を行い、位置、大きさ、向き等の顔パラメータを取得する。
In step S307, the
ステップS308では、CPU11は、第2画像の候補として、所定の枚数を記録したか否かを判定する。この判定がYESの場合は、第2画像に対する候補画像の取得を終了してステップS309に移る。一方、この判定がNOの場合は、ステップS306に戻って次の候補画像を記録する。
In step S308, the
ステップS309では、CPU11は、第1画像の候補画像群から1枚、第2画像の候補画像群から1枚を選択する。このとき、CPU11は、全ての組合せに関して、顔パラメータの類似度を評価し、この類似度が最も高い組合せを、第1画像P1および第2画像P2として決定する。なお、顔パラメータの類似度には限らず、例えば、顔パラメータによる位置合わせを実行した後の、顔部分の相関性が最も高い組合せや、背景部分と推定される部分の相関性が低い組合せを、第1画像および第2画像として決定してもよい。
In step S309, the
以上のように、本実施形態によれば、複数枚の候補画像から2枚の画像を自動的に選択し、背景と非背景との分離を行った。このことにより、ユーザの手を煩わせることなく、精度良く背景と非背景とが分離され得る画像を選択できるので、効率的に合成画像を生成することができる。 As described above, according to the present embodiment, two images are automatically selected from a plurality of candidate images, and the background and the non-background are separated. As a result, an image that can accurately separate the background and the non-background can be selected without bothering the user, so that a composite image can be efficiently generated.
なお、本発明は第1実施形態または第2実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 It should be noted that the present invention is not limited to the first embodiment or the second embodiment, and modifications, improvements, etc. within a scope that can achieve the object of the present invention are included in the present invention.
例えば、第1実施形態および第2実施形態では、撮像素子をCCD23として説明したが、CMOSセンサ等の他の撮像素子であってもよい。また、変位測定手段、対応付け手段、判別手段、設定手段、第2判別手段、警告手段、決定手段、測定手段、推定手段、記憶手段としての機能の一部をCPU11とは別の制御部により動作させてもよい。
For example, in the first embodiment and the second embodiment, the image pickup device has been described as the
また、本発明はデジタルカメラに限らず、例えばカメラ付きの携帯電話端末等の静止画撮像機能を有する撮像装置や、複数枚の画像から新たな画像を生成する機能を有する他の画像処理装置にも適用することができる。なお、このような画像処理装置には、所定のプログラムに基づいて動作することにより前述の機能が実現されるPC(Personal Computer)やPDA(Personal Digital Assistant)等も含まれる。 The present invention is not limited to a digital camera. For example, the present invention may be applied to an imaging device having a still image imaging function such as a mobile phone terminal with a camera, or another image processing device having a function of generating a new image from a plurality of images. Can also be applied. Note that such an image processing apparatus includes a PC (Personal Computer), a PDA (Personal Digital Assistant), and the like that realize the above-described functions by operating based on a predetermined program.
C 非背景部分
D1、D2 画素値
D3 背景用の画素値(第2の所定値)
L1 所定の距離(第3の所定値)
L2 所定の距離(第4の所定値)
P1 第1画像
P2 第2画像
PF 顔部分の中心
R 閾値(第1の所定値)
1 デジタルカメラ(画像処理装置)
2 撮影部(取得手段)
11 CPU(変位測定手段、対応付け手段、判別手段、設定手段、第2判別手段、警告手段、決定手段、測定手段、推定手段、記憶手段)
13 顔検出部(検出手段)
15 表示部(警告手段)
C Non-background portion D 1 , D 2 Pixel value D 3 Background pixel value (second predetermined value)
L 1 predetermined distance (third predetermined value)
L 2 predetermined distance (fourth predetermined value)
P 1 first image P 2 second image P F face portion of the center R threshold (first predetermined value)
1 Digital camera (image processing device)
2 Shooting unit (acquisition means)
11 CPU (displacement measurement means, association means, discrimination means, setting means, second discrimination means, warning means, determination means, measurement means, estimation means, storage means)
13 Face detection unit (detection means)
15 Display (Warning means)
Claims (12)
当該取得した第1画像および第2画像の中から、前記被写体の顔部分を検出する検出手段と、
前記第1画像の顔部分と前記第2画像の顔部分との相対変位を測定する変位測定手段と、
前記相対変位に基づき、前記第1画像を構成する画素と前記第2画像を構成する画素とを対応付ける対応付け手段と、
前記対応付けられた画素同士を比較し、当該画素の画素値の差分が第1の所定値以上である場合には、当該画素を背景部分とし、当該画素の画素値の差分が第1の所定値未満である場合には、当該画素を非背景部分とする判別手段と、
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring a first image and a second image that include the same subject and have different backgrounds;
Detecting means for detecting a face portion of the subject from the acquired first image and second image;
A displacement measuring means for measuring a relative displacement between the face portion of the first image and the face portion of the second image;
Association means for associating pixels constituting the first image and pixels constituting the second image based on the relative displacement;
The associated pixels are compared with each other, and if the pixel value difference of the pixel is equal to or greater than a first predetermined value, the pixel is set as a background portion, and the pixel value difference of the pixel is the first predetermined value. If the value is less than the value, a determination unit that sets the pixel as a non-background portion;
An image processing apparatus comprising:
前記第1画像または前記第2画像のうち一方を選択する選択手段と、
前記選択手段により選択された画像について前記判別手段により背景部分であると判別された画素の画素値を同じ値に設定する設定手段とをさらに備えることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
Selecting means for selecting one of the first image and the second image;
An image processing apparatus, further comprising: a setting unit that sets a pixel value of a pixel determined to be a background portion by the determination unit to the same value for the image selected by the selection unit.
前記検出された顔部分の中心を決定し、当該顔部分の中心からの距離が第3の所定値以上である画素を、背景部分とし、当該顔部分の中心からの距離が第4の所定値以下である画素を、非背景部分とする第2判別手段をさらに備え、
当該第2判別手段の判別対象を除いた領域について、前記判別手段を実行することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The center of the detected face part is determined, a pixel whose distance from the center of the face part is a third predetermined value or more is set as a background part, and the distance from the center of the face part is a fourth predetermined value. A second discriminating unit that uses the following pixel as a non-background portion;
An image processing apparatus that executes the determination unit on an area excluding the determination target of the second determination unit.
前記第2判別手段は、前記顔部分の向きに基づいて、前記被写体の前記顔部分の中心から見た首方向に対する見込み角が、所定の角度の範囲である人体の胴体部分が含まれると想定される範囲については判別対象から除外することを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The second determining means is based on the orientation of the face part, and it is assumed that a torso part of a human body in which a prospective angle with respect to a neck direction viewed from the center of the face part of the subject is within a predetermined angle range is included. An image processing apparatus that excludes a range to be determined from a discrimination target.
前記第1画像の顔部分の特徴量と前記第2画像の顔部分の特徴量とが大きく異なる場合に、警告を出力する警告手段をさらに備えることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
An image processing apparatus, further comprising: a warning unit that outputs a warning when a feature amount of the face portion of the first image and a feature amount of the face portion of the second image are greatly different.
前記警告手段は、前記第1画像の顔部分の特徴量と前記第2画像の顔部分の特徴量とが大きく異なる場合には、前記第2画像の顔部分の特徴量に基づいて、前記第2画像の顔部分の特徴量を前記第1画像の顔部分の特徴量に近似させるための前記第2画像の顔部分の位置、大きさ、および向きのうち少なくとも1つを報知することを特徴とする画像処理装置。 The image processing apparatus according to claim 5.
When the feature amount of the face portion of the first image and the feature amount of the face portion of the second image are greatly different from each other, the warning means determines the first image based on the feature amount of the face portion of the second image. At least one of the position, size, and orientation of the face portion of the second image for approximating the feature amount of the face portion of the two images to the feature amount of the face portion of the first image; An image processing apparatus.
前記取得手段は、前記第1画像の顔部分の特徴量と前記第2画像の顔部分の特徴量とが近似しない場合、新たに画像を取得し、当該新たな画像を前記第2画像とすることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
The acquisition means acquires a new image when the feature amount of the face portion of the first image and the feature amount of the face portion of the second image do not approximate, and sets the new image as the second image. An image processing apparatus.
前記取得手段は、第1画像群として被写体を含み同様な背景の複数の画像と第2画像群として被写体を含み第1画像群と異なる背景の複数の画像とを取得し、
前記取得した各画像群の中から1つずつ選択し、組合せを複数生成し、当該複数の組合せのそれぞれについて、前記顔部分の相関性が最も高い組合せを、前記第1画像および前記第2画像として決定する決定手段をさらに備えることを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
The acquisition means acquires a plurality of images including a subject as a first image group and a similar background and a plurality of images including a subject as a second image group and a background different from the first image group,
Select one from each of the acquired image groups, generate a plurality of combinations, and for each of the plurality of combinations, the combination having the highest correlation of the face part is selected as the first image and the second image. An image processing apparatus, further comprising: a determination unit that determines
前記被写体の顔部分に対する合焦度を測定する測定手段をさらに備え、
前記検出手段は、前記測定手段により測定された合焦度を、前記第1画像および第2画像の顔部分の特徴量として検出することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 8,
Measuring means for measuring the degree of focus on the face portion of the subject,
The image processing apparatus characterized in that the detection means detects the degree of focus measured by the measurement means as a feature amount of a face portion of the first image and the second image.
前記検出した顔部分の特徴量に基づいて、前記取得した第1画像および第2画像の非背景部分を推定する推定手段と、
前記顔部分を位置合わせすると共に、前記推定手段の推定結果に基づいて、前記第1画像の顔部分以外の非背景部分と、前記第2画像の顔部分以外の非背景部分と、を位置合わせして、当該2つの位置合わせ結果に基づいて、前記第1画像を構成する画素と前記第2画像を構成する画素とを対応付ける位置合わせ手段と、
をさらに備えることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 9,
Estimating means for estimating a non-background portion of the acquired first image and second image based on the detected feature amount of the face portion ;
Together before aligning the Kikao portion, based on the estimation result of the estimating means, the position and the non-background portion other than the face portion of the first image, and a non-background portion other than the face portion of the second image, the In addition, alignment means for associating the pixels constituting the first image and the pixels constituting the second image based on the two alignment results ,
An image processing apparatus further comprising:
ユーザにより前記第1画像の非背景部分または前記第2画像の非背景部分が選択されると、当該選択された画像の非背景部分を記憶する記憶手段をさらに備えることを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
An image processing apparatus further comprising a storage unit that stores a non-background portion of the selected image when the user selects a non-background portion of the first image or a non-background portion of the second image. .
同一の被写体を含み且つ背景の異なる第1画像および第2画像を取得する取得手段、
当該取得した第1画像および第2画像の中から、前記被写体の顔部分を検出する検出手段、
前記第1画像の顔部分と前記第2画像の顔部分との相対変位を測定する変位測定手段、
前記相対変位に基づき、前記第1画像を構成する画素と前記第2画像を構成する画素とを対応付ける対応付け手段、
前記対応付けられた画素同士を比較し、当該画素の画素値の差分が第1の所定値以上である場合には、当該画素を背景部分とし、当該画素の画素値の差分が第1の所定値未満である場合には、当該画素を非背景部分とする判別手段、
として機能させるプログラム。 Computer
Acquisition means for acquiring a first image and a second image that include the same subject and have different backgrounds;
Detecting means for detecting a face portion of the subject from the acquired first image and second image;
A displacement measuring means for measuring a relative displacement between the face portion of the first image and the face portion of the second image;
Association means for associating pixels constituting the first image and pixels constituting the second image based on the relative displacement;
The associated pixels are compared with each other, and if the pixel value difference of the pixel is equal to or greater than a first predetermined value, the pixel is set as a background portion, and the pixel value difference of the pixel is the first predetermined value. If the value is less than the value, a determination unit that sets the pixel as a non-background part,
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008186861A JP5245604B2 (en) | 2008-07-18 | 2008-07-18 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008186861A JP5245604B2 (en) | 2008-07-18 | 2008-07-18 | Image processing apparatus and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010028414A JP2010028414A (en) | 2010-02-04 |
JP2010028414A5 JP2010028414A5 (en) | 2011-09-01 |
JP5245604B2 true JP5245604B2 (en) | 2013-07-24 |
Family
ID=41733830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008186861A Expired - Fee Related JP5245604B2 (en) | 2008-07-18 | 2008-07-18 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5245604B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12099357B1 (en) * | 2014-08-24 | 2024-09-24 | AI Incorporated | Method for robotic devices to authenticate users |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11286227A (en) * | 1998-04-02 | 1999-10-19 | Toyota Motor Corp | Vehicle driver monitoring device |
JP2006121275A (en) * | 2004-10-20 | 2006-05-11 | Fuji Photo Film Co Ltd | Photography method and photographic device |
JP4898655B2 (en) * | 2007-12-27 | 2012-03-21 | 株式会社アイエスピー | Imaging apparatus and image composition program |
-
2008
- 2008-07-18 JP JP2008186861A patent/JP5245604B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010028414A (en) | 2010-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4702441B2 (en) | Imaging apparatus and imaging method | |
US7791668B2 (en) | Digital camera | |
JP5251215B2 (en) | Digital camera | |
JP5623915B2 (en) | Imaging device | |
JP5127592B2 (en) | Image processing apparatus, image processing method, program, and computer-readable recording medium | |
US20090059054A1 (en) | Apparatus, method, and recording medium containing program for photographing | |
JP4663700B2 (en) | Imaging apparatus and imaging method | |
JP2007281760A (en) | Electronic camera | |
KR20130017629A (en) | Apparatus and method for processing image, and computer-readable storage medium | |
JP2007310813A (en) | Image retrieving device and camera | |
JP4127521B2 (en) | Digital camera and control method thereof | |
JP2008017169A (en) | Electronic camera | |
JP2007148691A (en) | Image processor | |
JP2014067315A (en) | Authentication device, authentication method and program therefor | |
JP5167236B2 (en) | Subject tracking device and control method thereof | |
JP2007251532A (en) | Imaging device and face area extraction method | |
JP5245604B2 (en) | Image processing apparatus and program | |
KR20110083099A (en) | Digital image processing apparatus and method for controlling thereof | |
JP5132445B2 (en) | Image processing apparatus, image processing method, computer program, and storage medium | |
JP5222429B2 (en) | Subject tracking device and control method thereof | |
JP5004876B2 (en) | Imaging device | |
JP2009130840A (en) | Imaging apparatus, control method thereof ,and program | |
KR20110074668A (en) | Photoghraphing apparatus and method | |
JP5067323B2 (en) | Imaging apparatus and program | |
JP2009124350A (en) | Imaging device, its control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5245604 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160419 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |