JP2011191860A - Imaging apparatus, imaging processing method, and program - Google Patents

Imaging apparatus, imaging processing method, and program Download PDF

Info

Publication number
JP2011191860A
JP2011191860A JP2010055605A JP2010055605A JP2011191860A JP 2011191860 A JP2011191860 A JP 2011191860A JP 2010055605 A JP2010055605 A JP 2010055605A JP 2010055605 A JP2010055605 A JP 2010055605A JP 2011191860 A JP2011191860 A JP 2011191860A
Authority
JP
Japan
Prior art keywords
image
area
subject
color
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010055605A
Other languages
Japanese (ja)
Other versions
JP2011191860A5 (en
JP5504990B2 (en
Inventor
Takeshi Kasahara
健 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010055605A priority Critical patent/JP5504990B2/en
Publication of JP2011191860A publication Critical patent/JP2011191860A/en
Publication of JP2011191860A5 publication Critical patent/JP2011191860A5/en
Application granted granted Critical
Publication of JP5504990B2 publication Critical patent/JP5504990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus, an imaging processing method, and a program, for preventing the failure of the cutout of an object area. <P>SOLUTION: This imaging apparatus 100 is provided with: an electronic imaging part 2 which picks up an object existence image in which an object exists in a background; an image area determination part 8d which determines whether there exists a closed area almost surrounded by pixels in a color which is different from the color of a background image (for example, an object non-existence image) in the object existence image and whether there exists the same color area in almost the same color as the color of the background image in the closed area; and a display part 10 which informs, when it is determined that there exists the same color area in the closed area, a user that there exists the same color area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置、撮像処理方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an imaging processing method, and a program.

従来、撮像装置を用いて、背景内に被写体が存在する画像と被写体が存在しない背景画像とを撮像して、背景画像と被写体が存在する画像から差分情報を生成し、被写体のみを抜き出すアプリケーションが知られている(例えば、特許文献1参照)。   Conventionally, an application that uses an imaging device to capture an image with a subject in the background and a background image without the subject, generate difference information from the background image and the image with the subject, and extract only the subject It is known (see, for example, Patent Document 1).

特開平10−21408号公報Japanese Patent Laid-Open No. 10-21408

しかしながら、上記特許文献1のアプリケーションにおいては、切り抜きたい被写体と背景画像の色調がほぼ等しい場合、被写体領域を適正に切り抜けないという問題があった。   However, the application disclosed in Patent Document 1 has a problem that the subject area cannot be properly cut out when the color of the subject to be cut out and the color tone of the background image are substantially equal.

そこで、本発明の課題は、被写体領域の切り抜きの失敗を防止することができる撮像装置、撮像処理方法及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an imaging device, an imaging processing method, and a program that can prevent a failure in clipping of a subject area.

上記課題を解決するため、請求項1に記載の発明の撮像装置は、
背景画像を取得する取得手段と、背景内に被写体が存する被写体存在画像を撮像する撮像手段と、前記被写体存在画像に、前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段と、この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景画像と略同色の第2領域が存するか否かを判定する第2領域判定手段と、この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知手段と、を備えたことを特徴としている。
In order to solve the above problem, an imaging apparatus according to claim 1 is provided.
An acquisition unit that acquires a background image, an imaging unit that captures a subject-existing image in which a subject exists in the background, and a first region that is substantially surrounded by a region having a color different from the color of the background image. A first area determining means for determining whether or not the first area exists, and when the first area determining means determines that the first area exists, the background is included in the first area in the subject existing image. A second area determining means for determining whether or not a second area having substantially the same color as the image exists; and when the second area determining means determines that the second area exists, the fact that the second area exists. And an informing means for informing.

請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記第1領域は、前記背景用画像とは異なる色の画素で囲繞された閉領域であることを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
The first area is a closed area surrounded by pixels of a different color from the background image.

請求項3に記載の発明は、請求項1又は2に記載の撮像装置において、
前記撮像手段により撮像される被写体存在画像の背景は、前記背景画像の対応する領域と略同一であることを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 1 or 2,
The background of the subject existing image captured by the imaging means is substantially the same as the corresponding region of the background image.

請求項4に記載の発明の撮像装置は、
背景内に被写体が存する被写体存在画像を撮像する撮像手段と、前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段と、この非平坦度判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体存在画像に前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段と、この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景部分の色と略同色の第2領域が存するか否かを判定する第2領域判定手段と、この第2領域判定処理によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知手段と、を備えたことを特徴としている。
An imaging device according to a fourth aspect of the present invention provides:
Imaging means for capturing a subject existing image in which a subject is present in the background, nonflatness determining means for determining whether or not the nonflatness of the background portion of the subject existing image is equal to or less than a predetermined value, and the nonflatness When the non-flatness is determined to be equal to or less than a predetermined value by the determination unit, it is determined whether or not the subject existing image includes a first region substantially surrounded by a region having a color different from the color of the background image. A first area determination unit that performs the first area determination, and the first area determination unit determines that the first area exists, the first area of the subject-existing image has substantially the same color as the color of the background portion. Second area determination means for determining whether or not the second area exists, and notification means for notifying that the second area exists when it is determined by the second area determination processing that the second area exists. And features To have.

請求項5に記載の発明は、請求項4に記載の撮像装置において、
前記第1領域は、前記背景部分とは異なる色の画素で囲繞された閉領域であることを特徴としている。
The invention according to claim 5 is the imaging apparatus according to claim 4,
The first area is a closed area surrounded by pixels of a different color from the background portion.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、
前記被写体存在画像は、前記撮像手段によって順次撮像されて表示手段に表示されることを特徴としている。
Invention of Claim 6 is an imaging device as described in any one of Claims 1-5,
The subject presence images are sequentially picked up by the image pickup means and displayed on a display means.

請求項7に記載の発明は、請求項6に記載の撮像装置において、
前記報知手段は、前記表示手段に表示されている被写体存在画像における前記第2領域を識別可能な表示形態で表示させることを特徴としている。
The invention according to claim 7 is the imaging apparatus according to claim 6,
The informing means displays the second region in the subject existing image displayed on the display means in a display form that can be identified.

請求項8に記載の発明は、請求項1〜7の何れか一項に記載の撮像装置において、
前記被写体存在画像から被写体が存する領域を切り抜いて被写体画像を生成する画像生成手段を更に備えることを特徴としている。
The invention according to claim 8 is the imaging apparatus according to any one of claims 1 to 7,
The image processing device further includes image generation means for generating a subject image by cutting out a region where the subject exists from the subject existing image.

請求項9に記載の発明の撮像処理方法は、
背景内に被写体が存する被写体存在画像を撮像する撮像手段を備える撮像装置を用いた撮像処理方法であって、背景画像を取得する取得処理と、取得した被写体存在画像に、前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定処理と、この第1領域判定処理によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景画像と略同色の第2領域が存するか否かを判定する第2領域判定処理と、この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知処理と、を含むことを特徴としている。
The imaging processing method of the invention according to claim 9 is:
An imaging processing method using an imaging apparatus including an imaging unit that captures a subject existing image in which a subject is present in the background, an acquisition process for acquiring a background image, and a color of the background image on the acquired subject existing image A first area determination process for determining whether or not a first area substantially surrounded by areas of different colors exists, and when the first area determination process determines that the first area exists, the subject A second area determination process for determining whether or not a second area having substantially the same color as the background image exists in the first area in the existing image, and that the second area exists by the second area determination means. And a notification process for notifying that the second area exists when it is determined.

請求項10に記載の発明の撮像処理方法は、
背景内に被写体が存する被写体存在画像を撮像する撮像手段を備える撮像装置を用いた撮像処理方法であって、前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定処理と、この非平坦度判定処理により非平坦度が所定値以下であると判定された場合に、前記被写体存在画像に前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定処理と、この第1領域判定処理によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景部分の色と略同色の第2領域が存するか否かを判定する第2領域判定処理と、この第2領域判定処理によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知処理と、を含むことを特徴としている。
The imaging processing method of the invention according to claim 10 is:
An imaging processing method using an imaging device including an imaging unit that captures a subject existing image in which a subject is present in a background, and determines whether or not the non-flatness of a background portion of the subject existing image is equal to or less than a predetermined value And when the non-flatness is determined to be less than or equal to a predetermined value by the non-flatness determination process, the subject-existing image is substantially surrounded by an area of a color different from the color of the background image. A first area determination process for determining whether or not the first area exists, and when it is determined by the first area determination process that the first area exists, the first area in the subject existing image A second region determination process for determining whether or not a second region having substantially the same color as the color of the background portion exists, and when the second region determination process determines that the second region exists, The fact that the second area exists It is characterized in that it comprises, a notification process of notifying.

請求項11に記載の発明のプログラムは、
撮像装置のコンピュータを、背景画像を取得する取得手段、背景内に被写体が存する被写体存在画像を撮像させる撮像制御手段、前記被写体存在画像に、前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段、この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景画像と略同色の第2領域が存するか否かを判定する第2領域判定手段、この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知させる報知制御手段、として機能させることを特徴としている。
The program of the invention described in claim 11 is
The computer of the imaging apparatus is substantially surrounded by an acquisition unit that acquires a background image, an imaging control unit that captures a subject existing image in which a subject exists in the background, and an area of a color different from the color of the background image. A first area determining means for determining whether or not the first area exists, and when the first area determining means determines that the first area exists, the first area determining means 2nd area determination means for determining whether or not the second area having substantially the same color as the background image exists, and the second area determination means determines that the second area exists when the second area determination means determines that the second area exists. It is characterized by functioning as a notification control means for notifying that there is a problem.

請求項12に記載の発明のプログラムは、
撮像装置のコンピュータを、背景内に被写体が存する被写体存在画像を撮像させる撮像制御手段、前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段、この非平坦度判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体存在画像に前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段、この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景部分の色と略同色の第2領域が存するか否かを判定する第2領域判定手段、この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知させる報知制御手段、として機能させることを特徴としている。
The program of the invention described in claim 12 is:
An imaging control unit that causes a computer of the imaging apparatus to capture a subject existing image in which a subject exists in the background, and a non-flatness determination unit that determines whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value When the non-flatness determination means determines that the non-flatness is less than or equal to a predetermined value, the subject existing image has a first area substantially surrounded by an area of a color different from the color of the background image. A first region determining means for determining whether or not the first region is present, and when the first region determining means determines that the first region exists, the color of the background portion in the first region in the subject existing image A second region determining means for determining whether or not there is a second region having substantially the same color as the first region, and notifying that the second region exists when the second region determining unit determines that the second region exists. Notification system Means, is characterized in that to function as a.

本発明によれば、被写体領域の切り抜きの失敗を適正に防止することができる。   According to the present invention, it is possible to appropriately prevent failure in clipping of the subject area.

本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 to which this invention is applied. 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to subject clipping processing by the imaging apparatus of FIG. 1. 図2の被写体切り抜き処理の続きを示すフローチャートである。FIG. 3 is a flowchart showing a continuation of the subject clipping process in FIG. 2. FIG. 図2の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 図2の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 本発明を適用した実施形態2の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 2 to which this invention is applied. 図6の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of an operation related to a subject clipping process performed by the imaging apparatus of FIG. 6. 図7の被写体切り抜き処理における抽出用背景生成処理に係る動作の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of an operation related to an extraction background generation process in the subject clipping process of FIG. 7. FIG. 図8の抽出用背景生成処理の続きを示すフローチャートである。FIG. 9 is a flowchart showing a continuation of the extraction background generation processing of FIG. 8. FIG. 図7の被写体切り抜き処理における領域検出処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the area | region detection process in the to-be-cut object process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
実施形態1の撮像装置100は、背景内に被写体Sが存しない被写体非存在画像P1の撮像後、当該背景内に被写体Sの存する被写体存在画像P2を所定のタイミングで撮像し、この被写体存在画像P2における、被写体非存在画像P1とは異なる色の画素でほぼ囲まれた閉領域A1の中に、当該被写体非存在画像P1とほぼ等しい色の同色領域A2が存すると判定された場合に、当該同色領域A2が存する旨を報知する。
[Embodiment 1]
The imaging apparatus 100 according to the first embodiment captures a subject-existing image P1 in which the subject S exists in the background after capturing the subject non-existing image P1 in which the subject S does not exist in the background, and the subject-existing image. When it is determined that the same color area A2 having the same color as the subject non-existing image P1 exists in the closed region A1 substantially surrounded by pixels of a different color from the subject non-existing image P1 in P2, The fact that the same color area A2 exists is notified.

図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
図1に示すように、実施形態1の撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、表示制御部9と、表示部10と、記録媒体制御部11と、操作入力部12と、中央制御部13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13は、例えば、カスタムLSI1Aとして設計されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to the first embodiment to which the present invention is applied.
As illustrated in FIG. 1, the imaging apparatus 100 according to the first embodiment includes a lens unit 1, an electronic imaging unit 2, an imaging control unit 3, an image data generation unit 4, an image memory 5, and a feature amount calculation unit 6. A block matching unit 7, an image processing unit 8, a display control unit 9, a display unit 10, a recording medium control unit 11, an operation input unit 12, and a central control unit 13.
Further, the imaging control unit 3, the feature amount calculation unit 6, the block matching unit 7, the image processing unit 8, and the central control unit 13 are designed as a custom LSI 1A, for example.

レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体S(例えば、マウス等;図5(c)等参照)の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The lens unit 1 includes a plurality of lenses and includes a zoom lens, a focus lens, and the like.
Although not shown, the lens unit 1 includes a zoom driving unit and a focus lens that move the zoom lens in the optical axis direction when imaging the subject S (for example, a mouse or the like; see FIG. 5C or the like). A focusing drive unit or the like that moves the lens in the optical axis direction may be provided.

電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 2 is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 1 into a two-dimensional image signal. To do.

撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体Sの撮像条件の調整制御を行う。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image data generation unit 4.
In addition, the imaging control unit 3 performs adjustment control of imaging conditions of the subject S such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

また、撮像モードとして被写体切り抜きモード(後述)が設定されている場合に、ユーザによるシャッタボタン12aの撮像指示操作に基づいて、撮像制御部3は、レンズ部1を通過した背景内に被写体Sが存在する被写体存在画像P2(図5(c)参照)の光学像を所定の撮像条件で電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から被写体存在画像P2に係る画像フレームを読み出させる。
ここで、電子撮像部2及び撮像制御部3は、背景内に被写体Sが存在する被写体存在画像P2を所定のタイミングで撮像する撮像手段を構成している。
Further, when the subject clipping mode (described later) is set as the imaging mode, the imaging control unit 3 sets the subject S in the background that has passed through the lens unit 1 based on the imaging instruction operation of the shutter button 12a by the user. An optical image of the existing subject presence image P2 (see FIG. 5C) is converted into a two-dimensional image signal by the electronic imaging unit 2 under a predetermined imaging condition, and the subject presence image P2 is captured from the imaging region of the electronic imaging unit 2. The image frame concerning is read.
Here, the electronic image pickup unit 2 and the image pickup control unit 3 constitute an image pickup unit that picks up the subject existing image P2 in which the subject S is present in the background at a predetermined timing.

また、撮像制御部3は、撮像停止部3aを具備しており、撮像停止部3aは、画像処理部8の画像領域判定部8d(後述)によって被写体存在画像P2内の被写体非存在画像(背景画像)P1とは異なる色の画素で囲繞された閉領域(第1領域)A1の中に当該被写体非存在画像P1とほぼ等しい色の同色領域(第2領域)A2が存すると判定された場合に、電子撮像部2による被写体存在画像P2の撮像を停止させる(詳細後述)。   In addition, the imaging control unit 3 includes an imaging stop unit 3a. The imaging stop unit 3a is a subject non-existing image (background) in the subject existing image P2 by an image area determination unit 8d (described later) of the image processing unit 8. When it is determined that the same color area (second area) A2 having substantially the same color as the subject non-existing image P1 exists in the closed area (first area) A1 surrounded by pixels of a color different from the image P1 Then, the imaging of the subject existing image P2 by the electronic imaging unit 2 is stopped (details will be described later).

画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、画像データ生成部4は、YUVデータを水平及び垂直ともに所定倍率で縮小処理を行って、ライブビュー表示用の低解像度の縮小画像データを生成する。
カラープロセス回路から出力されるYUVデータは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image data generation unit 4 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the electronic imaging unit 2, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data). In addition, the image data generation unit 4 performs reduction processing of YUV data at a predetermined magnification both horizontally and vertically to generate low-resolution reduced image data for live view display.
YUV data output from the color process circuit is DMA-transferred to an image memory 5 used as a buffer memory via a DMA controller (not shown).

なお、A/D変換後のデジタルデータを現像するデモザイク部(図示略)が、カスタムLSI1Aに実装されていても良い。   A demosaic unit (not shown) for developing the digital data after A / D conversion may be mounted on the custom LSI 1A.

画像メモリ5は、例えば、DRAM等により構成され、画像データ生成部4から転送された被写体存在画像P2や被写体非存在画像P1のYUVデータを一時的に記憶する。また、画像メモリ5は、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13等によって処理されるデータ等を一時的に記憶する。   The image memory 5 is composed of, for example, a DRAM or the like, and temporarily stores YUV data of the subject existing image P2 and the subject non-existing image P1 transferred from the image data generating unit 4. The image memory 5 temporarily stores data processed by the feature amount calculation unit 6, the block matching unit 7, the image processing unit 8, the central control unit 13, and the like.

特徴量演算部6は、背景内に被写体Sが存在しない被写体非存在画像P1を基準として、当該被写体非存在画像P1から特徴点を抽出する特徴抽出処理を行う。
具体的には、特徴量演算部6は、例えば、被写体非存在画像P1のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The feature amount calculation unit 6 performs feature extraction processing for extracting feature points from the subject nonexistent image P1 with reference to the subject nonexistent image P1 in which the subject S does not exist in the background.
Specifically, the feature amount calculation unit 6 selects, for example, a predetermined number (or a predetermined number or more) of high feature block areas (feature points) based on the YUV data of the subject non-existing image P1, The contents of the block are extracted as a template (for example, a square of 16 × 16 pixels).
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.

ブロックマッチング部7は、被写体非存在画像P1と被写体存在画像P2との位置合わせのためのブロックマッチング処理を行う。
具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P2内のどこに対応するか、つまり、被写体存在画像P2内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。ここで、被写体Sの撮像は、例えば、特徴量の少ない無地の背景をバックに行われることにより、被写体存在画像P2の被写体S以外の背景部分と、被写体非存在画像P1の当該背景部分に対応する領域とは略同一となる。
そして、ブロックマッチング部7は、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P1と被写体存在画像P2間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
The block matching unit 7 performs block matching processing for positioning the subject non-existing image P1 and the subject existing image P2.
Specifically, the block matching unit 7 optimally matches where the template extracted by the feature extraction process corresponds to in the subject existing image P2, that is, the template pixel value in the subject existing image P2. Search for a position (corresponding region). Here, the imaging of the subject S is performed with, for example, a plain background with a small feature amount in the background, so that the background portion other than the subject S of the subject existing image P2 and the background portion of the subject nonexisting image P1 are supported. It is substantially the same as the area to be performed.
Then, the block matching unit 7 determines the difference between the subject non-existing images P1 and the subject existing images P2 having the best evaluation values (for example, the sum of squared differences (SSD) and the sum of absolute differences (SAD)). Is calculated as a motion vector of the template.

画像処理部8は、画像取得部8aと、分割部8bと、色算出部8cと、画像領域判定部8dと、位置合わせ部8eと、被写体画像抽出部8fと、位置情報生成部8gと、切抜画像生成部8hとを具備している。   The image processing unit 8 includes an image acquisition unit 8a, a division unit 8b, a color calculation unit 8c, an image region determination unit 8d, a registration unit 8e, a subject image extraction unit 8f, a position information generation unit 8g, A cut-out image generation unit 8h.

画像取得部8aは、画像メモリ5に一時的に記憶されている被写体非存在画像(背景画像)P1のYUVデータを取得する。即ち、画像取得部8aは、被写体切り抜き処理(後述)にて、電子撮像部2及び撮像制御部3による被写体非存在画像P1(図4(a)参照)の撮像後、画像データ生成部4から転送されて画像メモリ5に一時的に記憶された被写体非存在画像P1のYUVデータを取得する。
ここで、画像取得部8aは、画像メモリ5に記憶されている被写体非存在画像(背景画像)P1を取得する取得手段を構成している。
The image acquisition unit 8 a acquires YUV data of the subject nonexistent image (background image) P <b> 1 temporarily stored in the image memory 5. That is, the image acquisition unit 8a performs image capturing from the image data generation unit 4 after the subject nonexistent image P1 (see FIG. 4A) is captured by the electronic imaging unit 2 and the imaging control unit 3 in the subject clipping process (described later). The YUV data of the subject nonexistent image P1 transferred and temporarily stored in the image memory 5 is acquired.
Here, the image acquisition unit 8a constitutes acquisition means for acquiring the subject non-existence image (background image) P1 stored in the image memory 5.

分割部8bは、被写体存在画像P2及び被写体非存在画像P1の各々を複数の画像ブロックB、…に分割する。
即ち、分割部8bは、被写体切り抜き処理にて、画像取得部8aにより取得された被写体非存在画像P1のYUVデータに基づいて、当該被写体非存在画像P1全体を縦横がそれぞれ所定画素からなる複数の画像ブロックB、…に分割する(図4(b)参照)。また、分割部8bは、被写体切り抜き処理にて、画像取得部8aにより取得されたライブビュー表示されている被写体存在画像P2のYUVデータに基づいて、当該被写体存在画像P2全体を、被写体非存在画像P1と同様に、縦横がそれぞれ所定画素からなる複数の画像ブロックB、…に分割する(図5(a)参照)。
なお、分割部8bによる処理対象となる被写体存在画像P2及び被写体非存在画像P1の画像データは、例えば、記録用として記録媒体11aに記録される高解像度の画像データであっても良いし、画像データ生成部4により生成されたライブビュー表示用の低解像度の縮小画像データであっても良いし、後述する各画像ブロックBの平均色の算出用に調整された所定解像度の専用の画像データであっても良い。
The dividing unit 8b divides each of the subject existing image P2 and the subject non-existing image P1 into a plurality of image blocks B,.
That is, the dividing unit 8b performs a subject clipping process on the basis of the YUV data of the subject non-existing image P1 acquired by the image acquiring unit 8a. The image is divided into image blocks B,... (See FIG. 4B). In addition, the dividing unit 8b converts the entire subject existing image P2 into the subject nonexistent image based on the YUV data of the subject existing image P2 displayed in the live view acquired by the image acquiring unit 8a in the subject clipping process. Similar to P1, the image is divided into a plurality of image blocks B,.
Note that the image data of the subject presence image P2 and the subject non-existence image P1 to be processed by the dividing unit 8b may be, for example, high-resolution image data recorded on the recording medium 11a for recording. Low-resolution reduced image data for live view display generated by the data generation unit 4 may be used, or dedicated image data having a predetermined resolution adjusted for calculating the average color of each image block B described later. There may be.

色算出部8cは、分割部8bにより分割された被写体非存在画像P1及び被写体存在画像P2の複数の画像ブロックB、…の各々について、各画像ブロックBを代表する色を算出する。具体的には、色算出部8cは、例えば、各画像ブロックB内の複数の画素の色についての平均値、中央値、最頻値などを代表値として算出する。
また、色算出部8cは、被写体非存在画像P1の各画像ブロックBの平均色から当該被写体非存在画像P1の平均色を算出する。
The color calculation unit 8c calculates a color representing each image block B for each of the plurality of image blocks B,... Of the subject non-existing image P1 and the subject existing image P2 divided by the dividing unit 8b. Specifically, the color calculation unit 8c calculates, for example, an average value, a median value, a mode value, and the like for the colors of a plurality of pixels in each image block B as representative values.
Further, the color calculation unit 8c calculates the average color of the subject nonexistent image P1 from the average color of each image block B of the subject nonexistent image P1.

画像領域判定部8dは、被写体存在画像P2における被写体非存在画像P1とは異なる色の画素でほぼ囲まれた閉領域A1の中に、当該被写体非存在画像P1とほぼ等しい色の同色領域A2が存するか否かを判定する。
即ち、画像領域判定部8dは、被写体切り抜き処理にて、分割部8bにより分割された被写体非存在画像P1及び被写体存在画像P2の複数の画像ブロックB、…の各々の代表色(例えば、平均色)に基づいて、被写体存在画像P2の閉領域A1の中に被写体非存在画像P1と略同色の領域である同色領域A2が存するか否かを判定する。具体的には、画像領域判定部8dは、ライブビュー表示されている被写体存在画像(ライブビュー画像)P2の複数の画像ブロックB、…の各々の平均色と被写体非存在画像P1の平均色とに基づいて、当該被写体存在画像P2の各画像ブロックBの平均色と被写体非存在画像P1の平均色とを比較判定することで、被写体存在画像P2における被写体非存在画像P1の平均色とは異なる色の画素で囲繞された閉領域A1を特定する。そして、閉領域A1が特定されると、画像領域判定部8dは、被写体存在画像P2のライブビュー画像の複数の画像ブロックB、…の各々の平均色と被写体非存在画像P1の平均色とに基づいて、当該被写体存在画像P2の閉領域A1内の各画像ブロックBの平均色と被写体非存在画像P1の平均色とを比較判定することで、閉領域A1内に被写体非存在画像P1の平均色とほぼ等しい色の画素からなる同色領域A2が存するか否かを判定する。
The image area determination unit 8d includes a same-color area A2 having substantially the same color as the subject non-existing image P1 in the closed area A1 that is substantially surrounded by pixels of a different color from the subject non-existing image P1 in the subject existing image P2. It is determined whether or not it exists.
That is, the image area determination unit 8d performs representative colors (for example, average color) of the plurality of image blocks B of the subject non-existing image P1 and the subject existing image P2 divided by the dividing unit 8b in the subject clipping process. ), It is determined whether or not the same color area A2 that is substantially the same color as the subject non-existing image P1 exists in the closed area A1 of the subject existing image P2. Specifically, the image area determination unit 8d determines the average color of each of the plurality of image blocks B of the subject existing image (live view image) P2 displayed in live view and the average color of the subject non-existing image P1. The average color of each image block B of the subject presence image P2 and the average color of the subject non-existence image P1 are compared and determined based on the difference between the average color of the subject non-existence image P1 in the subject presence image P2. A closed region A1 surrounded by color pixels is specified. When the closed region A1 is specified, the image region determination unit 8d converts the average color of each of the plurality of image blocks B of the live view image of the subject presence image P2 and the average color of the subject non-existence image P1. Based on the average color of each image block B in the closed region A1 of the subject presence image P2 and the average color of the subject non-existence image P1, the average of the subject non-existence image P1 in the closed region A1 is determined. It is determined whether or not there is a same color area A2 composed of pixels of substantially the same color as the color.

なお、被写体非存在画像P1と被写体存在画像P2との色の判定にあっては、厳密に判定しても良いし、被写体非存在画像P1や被写体存在画像P2の各色に対する差分が所定範囲の色は誤差範囲内であるしても良い。また、誤差範囲は、予め設定された所定の固定された範囲であっても良いし、ユーザによる操作入力部12の所定操作に基づいて手動で、或いは、画像領域判定部8dや中央制御部13等が自動的に適宜任意に変更可能としても良い。
また、閉領域A1は、被写体存在画像P2における、被写体非存在画像P1とは異なる色の画素で完全に囲繞されたものに限られるものではなく、例えば、被写体非存在画像P1とは異なる色の画素どうしが離間していても、膨張処理や収縮処理、ラベリング処理等によって有効領域に置換可能な程度であれば許容範囲としても良い。即ち、閉領域(第1領域)A1は、被写体存在画像P2における被写体非存在画像P1とは異なる色の画素で完全に囲まれている必要はない。
さらに、閉領域A1や同色領域A2の判定にて、画像領域判定部8dは、被写体存在画像(ライブビュー画像)P2と被写体非存在画像P1との対応する画像ブロックBの平均色どうしを比較判定するようにしても良い。
It should be noted that the determination of the colors of the subject non-existing image P1 and the subject existing image P2 may be made strictly, or the difference between the colors of the subject non-existing image P1 and the subject existing image P2 is a color within a predetermined range. May be within an error range. The error range may be a predetermined fixed range set in advance, manually based on a predetermined operation of the operation input unit 12 by the user, or the image area determination unit 8d and the central control unit 13. Etc. may be automatically and arbitrarily changed as appropriate.
Further, the closed region A1 is not limited to the subject existing image P2 that is completely surrounded by pixels of a different color from the subject non-existing image P1, and for example, has a color different from that of the subject non-existing image P1. Even if the pixels are separated from each other, an allowable range may be used as long as it can be replaced with an effective region by expansion processing, contraction processing, labeling processing, or the like. That is, the closed region (first region) A1 does not have to be completely surrounded by pixels of a different color from the subject non-existing image P1 in the subject existing image P2.
Further, in the determination of the closed region A1 or the same color region A2, the image region determination unit 8d compares and determines the average colors of the corresponding image blocks B of the subject existing image (live view image) P2 and the subject non-existing image P1. You may make it do.

このように、画像領域判定部8dは、電子撮像部2及び撮像制御部3により撮像された被写体存在画像P2に被写体非存在画像P1とは異なる色の画素でほぼ囲まれた閉領域(第1領域)A1が存するか否かを判定する第1領域判定手段、及び閉領域A1の中に、当該被写体非存在画像P1とほぼ等しい色の同色領域(第2領域)A2が存するか否かを判定する及び第2領域判定手段を構成している。   In this manner, the image area determination unit 8d is a closed area (first area) in which the subject presence image P2 captured by the electronic imaging unit 2 and the imaging control unit 3 is substantially surrounded by pixels of a color different from the subject non-existence image P1. (Area) First area determination means for determining whether or not A1 exists, and whether or not the same color area (second area) A2 having the same color as the subject non-existing image P1 exists in the closed area A1. The determination and second area determination means are configured.

位置合わせ部8eは、被写体非存在画像P1から抽出した特徴点に基づいて、被写体存在画像P2と被写体非存在画像P1との位置合わせを行う。
即ち、位置合わせ部8eは、被写体非存在画像P1から抽出した特徴点に基づいて、被写体非存在画像P1に対する被写体存在画像P2の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P2を座標変換して被写体非存在画像P1と位置合わせを行う。
The alignment unit 8e aligns the subject presence image P2 and the subject non-existence image P1 based on the feature points extracted from the subject non-existence image P1.
That is, the alignment unit 8e calculates a coordinate conversion formula (projection conversion matrix) of each pixel of the subject existing image P2 with respect to the subject nonexistent image P1 based on the feature points extracted from the subject nonexistent image P1, and the coordinates. The subject presence image P2 is coordinate-transformed according to the conversion formula and aligned with the subject non-existence image P1.

被写体画像抽出部8fは、位置合わせ部8eにより位置合わせされた被写体非存在画像P1と被写体存在画像P2との間で対応する各画素の差分情報(例えば、相違度マップなど)を生成し、当該差分情報を基準として被写体存在画像P2から被写体Sが含まれる被写体画像を抽出する。
なお、被写体画像抽出部8fは、各画素の差分情報として相違度マップを生成する場合には、例えば、後述する式(2)を用いても良いが、これに限られるものではない。
The subject image extraction unit 8f generates difference information (for example, a dissimilarity map or the like) of each corresponding pixel between the subject non-existence image P1 and the subject presence image P2 aligned by the alignment unit 8e. A subject image including the subject S is extracted from the subject presence image P2 based on the difference information.
Note that the subject image extraction unit 8f may use, for example, Equation (2) described later when generating the dissimilarity map as the difference information of each pixel, but is not limited thereto.

位置情報生成部8gは、被写体存在画像P2内で抽出された被写体画像の位置を特定して、被写体存在画像P2における被写体画像の位置を示す位置情報を生成する。
ここで、位置情報としては、例えば、アルファマップが挙げられ、アルファマップとは、被写体存在画像P2の各画素について、被写体画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
The position information generation unit 8g specifies the position of the subject image extracted in the subject presence image P2, and generates position information indicating the position of the subject image in the subject presence image P2.
Here, the position information includes, for example, an alpha map. The alpha map is an alpha value (0) for subjecting each pixel of the subject existing image P2 to alpha blending the subject image with a predetermined background. ≦ α ≦ 1).

切抜画像生成部8hは、生成されたアルファマップに基づいて、被写体存在画像P2の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体画像を所定の単一色画像と合成して被写体切り抜き画像(図示略)の画像データを生成する。
これにより、切抜画像生成部8hは、背景と被写体とが存在する被写体存在画像P2から被写体が含まれる領域を切り抜いた被写体切り抜き画像を取得する。
ここで、切抜画像生成部8hは、被写体存在画像P2から被写体Sが含まれる被写体領域を切り抜いて被写体切り抜き画像を生成する画像生成手段を構成している。
Based on the generated alpha map, the cut-out image generation unit 8h does not transmit a pixel having an alpha value of 1 to a predetermined single color image (not shown) among the pixels of the subject existing image P2. In addition, the subject image is combined with a predetermined single color image so as to transmit pixels with an alpha value of 0, and image data of a subject cutout image (not shown) is generated.
As a result, the cut-out image generation unit 8h obtains a subject cut-out image obtained by cutting out a region including the subject from the subject existing image P2 in which the background and the subject exist.
Here, the cut-out image generation unit 8h constitutes image generation means for cutting out a subject area including the subject S from the subject existing image P2 to generate a subject cut-out image.

表示制御部9は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部10に表示させる制御を行う。
具体的には、表示制御部9は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部10に出力する。
表示部10は、例えば、液晶表示装置であり、表示制御部9からのビデオ信号に基づいてライブビュー画像やレックビュー画像などを表示画面に表示する。
即ち、表示制御部9は、撮像モードにて、電子撮像部2及び撮像制御部3による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像や、本撮像画像として撮像されたレックビュー画像などを表示部10の表示画面に表示させる。
The display control unit 9 performs control to read display image data temporarily stored in the image memory 5 and display the data on the display unit 10.
Specifically, the display control unit 9 includes a VRAM, a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the image memory 5 and stored in the VRAM (not shown) under the control of the central control unit 13 via the VRAM controller. The data is periodically read from the VRAM, a video signal is generated based on these data, and is output to the display unit 10.
The display unit 10 is, for example, a liquid crystal display device, and displays a live view image, a REC view image, and the like on a display screen based on a video signal from the display control unit 9.
That is, the display control unit 9 is captured as a live view image or a main captured image based on a plurality of image frames generated by imaging the subject S by the electronic imaging unit 2 and the imaging control unit 3 in the imaging mode. A REC view image or the like is displayed on the display screen of the display unit 10.

また、表示制御部9は、画像領域判定部8dにより判定された被写体存在画像P2の閉領域A1内の同色領域A2を表示部10の表示画面に識別可能に表示させる(図5(b)参照)。具体的には、表示制御部9は、ライブビュー表示されている被写体存在画像P2の閉領域A1内の同色領域A2の色を他の色(好ましくは、網膜を刺激し易い色など)に変更したり、変更後の色を所定間隔で点灯(点滅)表示したりすることで、当該同色領域A2が存する旨を報知し、これにより、当該同色領域A2をユーザに対して識別可能とさせる。なお、図5(b)にあっては、同色領域A2の識別可能な表示態様として、当該同色領域A2に対応する部分に斜線を入れて模式的に表している。
ここで、表示部10及び表示制御部9は、画像領域判定部8dにより判定された被写体存在画像P2の閉領域A1内に同色領域A2が存すると判定されて場合に、当該同色領域A2が存する旨を報知する報知手段を構成している。
Further, the display control unit 9 displays the same color region A2 in the closed region A1 of the subject existing image P2 determined by the image region determination unit 8d in a distinguishable manner on the display screen of the display unit 10 (see FIG. 5B). ). Specifically, the display control unit 9 changes the color of the same color area A2 in the closed area A1 of the subject existing image P2 displayed in live view to another color (preferably a color that easily stimulates the retina). Or by lighting (flashing) the changed color at a predetermined interval to notify that the same color area A2 exists, thereby enabling the user to identify the same color area A2. In FIG. 5B, as a display mode in which the same color area A2 can be identified, a portion corresponding to the same color area A2 is schematically shown by hatching.
Here, when it is determined that the same color area A2 exists in the closed area A1 of the subject existing image P2 determined by the image area determination unit 8d, the display unit 10 and the display control unit 9 include the same color area A2. Informing means for informing the effect is configured.

なお、被写体存在画像P2の閉領域A1内の同色領域A2の報知の態様として、表示部10による当該同色領域A2の表示を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
即ち、同色領域A2の報知の態様は、人の五感、特に、視覚、聴覚、触覚等によって当該同色領域A2を把握、認識させることができる方法であれば如何なる態様であっても良く、例えば、同色領域A2が存する旨を音(音声など)や振動により報知するようにしても良い。
In addition, although the display of the same color area A2 by the display unit 10 is illustrated as a notification mode of the same color area A2 in the closed area A1 of the subject existing image P2, it is only an example and is not limited to this, and arbitrarily arbitrary Can be changed.
That is, the mode of notification of the same color area A2 may be any mode as long as it is a method capable of grasping and recognizing the same color area A2 by human senses, in particular, visual, auditory, tactile, etc. The fact that the same color area A2 exists may be notified by sound (voice etc.) or vibration.

記録媒体制御部11は、記録媒体11aが着脱自在に構成され、装着された記録媒体11aからのデータの読み出しや記録媒体11aに対するデータの書き込みを制御する。即ち、記録媒体制御部11は、画像処理部8のJPEG圧縮部(図示略)により符号化された撮像画像の記録用の画像データを記録媒体11aに記録させる。
また、被写体画像の画像データは、画像処理部8の位置情報生成部8gにより生成されたアルファマップと対応付けられて、当該被写体切り抜き画像の画像データの拡張子を「.jpe」として保存されている。
The recording medium control unit 11 is configured such that the recording medium 11a is detachable, and controls reading of data from the loaded recording medium 11a and writing of data to the recording medium 11a. That is, the recording medium control unit 11 records the image data for recording the captured image encoded by the JPEG compression unit (not shown) of the image processing unit 8 on the recording medium 11a.
Further, the image data of the subject image is associated with the alpha map generated by the position information generation unit 8g of the image processing unit 8, and the extension of the image data of the subject cutout image is stored as “.jpe”. Yes.

なお、記録媒体11aは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。   The recording medium 11a is composed of, for example, a non-volatile memory (flash memory) or the like.

操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体Sの撮影指示に係るシャッタボタン12a、メニュー画面にて撮像モードや機能等の選択指示に係る選択決定用ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。   The operation input unit 12 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 12 includes a shutter button 12a related to an instruction to shoot the subject S, a selection determination button 12b related to an instruction to select an imaging mode or a function on the menu screen, and a zoom related to an instruction to adjust the zoom amount. Buttons (not shown) and the like are provided, and predetermined operation signals are output to the central control unit 13 in accordance with operations of these buttons.

中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、CPU、RAM、ROM(何れも図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 13 controls each unit of the imaging apparatus 100. Specifically, the central control unit 13 includes a CPU, a RAM, and a ROM (all not shown), and performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

次に、撮像装置100による被写体切り抜き処理について、図2〜図5を参照して説明する。
図2及び図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
Next, the subject clipping process performed by the imaging apparatus 100 will be described with reference to FIGS.
2 and 3 are flowcharts showing an example of an operation related to the subject clipping process.

被写体切り抜き処理は、ユーザによる操作入力部12の選択決定用ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図2に示すように、先ず、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて、撮像制御部3は、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の撮像条件を調整させて、背景内に所定の被写体(例えば、被写体S)が存しない被写体非存在画像P1(図4(a)参照)の光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS1)。ここで撮像される被写体非存在画像P1は、略単一色の平坦な画像であるのが望ましい。
そして、画像データ生成部4は、電子撮像部2から転送された被写体非存在画像P1のYUVデータを生成した後、当該被写体非存在画像P1のYUVデータを画像メモリ5に一時的に記憶させる。
また、撮像制御部3は、当該被写体非存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の撮像条件を固定した状態を維持する。
The subject clipping process is executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. It is processing.
As shown in FIG. 2, first, based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user, the imaging control unit 3 sets the focus lens focus position and exposure conditions (shutter speed, aperture, amplification factor, etc.). ) And white balance and other imaging conditions are adjusted so that an optical image of a subject non-existing image P1 (see FIG. 4A) in which a predetermined subject (for example, subject S) does not exist in the background is set under the predetermined imaging condition. An image is picked up by the electronic image pickup unit 2 (step S1). The subject non-existing image P1 captured here is preferably a flat image of substantially a single color.
Then, after generating the YUV data of the subject non-existing image P1 transferred from the electronic imaging unit 2, the image data generation unit 4 temporarily stores the YUV data of the subject non-existing image P1 in the image memory 5.
Further, the imaging control unit 3 maintains a state in which imaging conditions such as a focus position, an exposure condition, and a white balance at the time of imaging the subject non-existing image P1 are fixed.

次に、画像処理部8の画像取得部8aは、画像メモリ5に一時的に記憶されている被写体非存在画像P1のYUVデータを取得した後、分割部8bは、当該被写体非存在画像P1全体を所定の大きさの複数の画像ブロックB、…に分割する(ステップS2;図4(b)参照)。
続けて、画像処理部8の色算出部8cは、分割部8bにより分割された被写体非存在画像P1の複数の画像ブロックB、…の各々について、各画像ブロックBを代表する平均色を算出し、これら各画像ブロックBの平均色から被写体非存在画像P1の平均色を算出する(ステップS3)。
Next, after the image acquisition unit 8a of the image processing unit 8 acquires the YUV data of the subject non-existing image P1 temporarily stored in the image memory 5, the dividing unit 8b displays the entire subject non-existing image P1. Is divided into a plurality of image blocks B of a predetermined size (step S2; see FIG. 4B).
Subsequently, the color calculation unit 8c of the image processing unit 8 calculates an average color representing each image block B for each of the plurality of image blocks B of the subject nonexistent image P1 divided by the division unit 8b. Then, the average color of the subject non-existing image P1 is calculated from the average color of each image block B (step S3).

次に、撮像制御部3は、レンズ部1を通過した画像の光学像を所定の撮像条件で電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から画像フレームを読み出させることで、電子撮像部2にライブビュー画像を撮像させる(ステップS4;図4(c)参照)。
続けて、画像処理部8の画像取得部8aは、電子撮像部2により撮像され、画像データ生成部4から転送されて画像メモリ5に一時的に記憶されたライブビュー画像に係る複数の画像フレームのYUVデータを順次取得していき、分割部8bは、取得されたライブビュー画像の各々について、当該画像全体を被写体非存在画像P1と同様に所定の大きさの複数の画像ブロックB、…に分割する(ステップS5;図5(a)参照)。
ここで、被写体非存在画像P1の撮像後、被写体Sが画角内に移動するか、或いは、被写体Sを画角内に移動させることで、画角内に被写体Sが存在する状態で撮像されるライブビュー画像は、被写体存在画像P2を構成する。
Next, the imaging control unit 3 converts the optical image of the image that has passed through the lens unit 1 into a two-dimensional image signal by the electronic imaging unit 2 under a predetermined imaging condition, and the image frame from the imaging region of the electronic imaging unit 2 Is read out to cause the electronic imaging unit 2 to capture a live view image (step S4; see FIG. 4C).
Subsequently, the image acquisition unit 8 a of the image processing unit 8 captures a plurality of image frames related to the live view image captured by the electronic imaging unit 2, transferred from the image data generation unit 4, and temporarily stored in the image memory 5. The YUV data is sequentially acquired, and for each of the acquired live view images, the dividing unit 8b converts the entire image into a plurality of image blocks B having a predetermined size like the subject non-existing image P1. Divide (step S5; refer to FIG. 5A).
Here, after the subject non-existing image P1 is captured, the subject S moves within the angle of view, or the subject S is moved within the angle of view so that the subject S exists within the angle of view. The live view image constitutes the subject presence image P2.

次に、画像処理部8の色算出部8cは、分割部8bにより分割されたライブビュー表示されている被写体存在画像P2の複数の画像ブロックB、…の各々について、各画像ブロックBを代表する平均色を算出する(ステップS6)。
続けて、画像処理部8の画像領域判定部8dは、ライブビュー画像内に被写体非存在画像P1の平均色と異なる色の画素で囲繞された閉領域A1が存するか否かを判定する(ステップS7)。具体的には、画像領域判定部8dは、ライブビュー表示されている被写体存在画像(ライブビュー画像)P2の複数の画像ブロックB、…の各々の平均色と被写体非存在画像P1の平均色とを比較判定することで、被写体存在画像P2における被写体非存在画像P1の平均色とは異なる色の画素で囲繞された閉領域A1を特定する。そして、画像領域判定部8dは、当該特定結果に応じてライブビュー画像内に閉領域A1が存するか否かを判定する。
Next, the color calculation unit 8c of the image processing unit 8 represents each image block B with respect to each of the plurality of image blocks B,... Of the subject existing image P2 displayed in the live view divided by the dividing unit 8b. An average color is calculated (step S6).
Subsequently, the image region determination unit 8d of the image processing unit 8 determines whether or not there is a closed region A1 surrounded by pixels having a color different from the average color of the subject non-existing image P1 in the live view image (Step S1). S7). Specifically, the image area determination unit 8d determines the average color of each of the plurality of image blocks B of the subject existing image (live view image) P2 displayed in live view and the average color of the subject non-existing image P1. , The closed region A1 surrounded by pixels having a color different from the average color of the subject non-existing image P1 in the subject existing image P2 is specified. Then, the image area determination unit 8d determines whether or not the closed area A1 exists in the live view image according to the identification result.

ステップS7にて、ライブビュー画像(被写体存在画像P2)内に閉領域A1が存すると判定されると(ステップS7;YES)、画像領域判定部8dは、当該閉領域A1内に被写体非存在画像P1の平均色とほぼ等しい色の画素からなる同色領域A2が存するか否かを判定する(ステップS8)。具体的には、画像領域判定部8dは、被写体存在画像P2の閉領域A1内の各画像ブロックBの平均色と被写体非存在画像P1の平均色とを比較判定することで、閉領域A1内に被写体非存在画像P1の平均色とほぼ等しい色の画素からなる同色領域A2が存するか否かを判定する。
ここで、ライブビュー画像の閉領域A1内に同色領域A2が存すると判定されると(ステップS8;YES)、表示制御部9は、電子撮像部2により撮像された複数の画像フレームに基づいて、表示部10の表示画面にライブビュー表示されている被写体存在画像P2の閉領域A1内の同色領域A2の色を他の色に変更して表示させることで、当該同色領域A2が存する旨を報知する(ステップS9;図5(b)参照)。
If it is determined in step S7 that the closed region A1 exists in the live view image (subject present image P2) (step S7; YES), the image region determination unit 8d includes the subject nonexistent image in the closed region A1. It is determined whether or not there is a same color area A2 composed of pixels having a color substantially equal to the average color of P1 (step S8). Specifically, the image region determination unit 8d compares and determines the average color of each image block B in the closed region A1 of the subject existing image P2 and the average color of the subject non-existing image P1, thereby determining whether the image is within the closed region A1. It is determined whether or not there is a same color area A2 composed of pixels of approximately the same color as the average color of the subject non-existing image P1.
Here, if it is determined that the same color area A2 exists in the closed area A1 of the live view image (step S8; YES), the display control unit 9 is based on a plurality of image frames captured by the electronic imaging unit 2. By changing the color of the same color area A2 in the closed area A1 of the subject existing image P2 displayed in live view on the display screen of the display unit 10 to another color and displaying it, the fact that the same color area A2 exists is displayed. Notification is made (step S9; see FIG. 5B).

次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて、被写体存在画像P2の撮像指示が入力されたか否かを判定する(ステップS10)。
ここで、被写体存在画像P2の撮像指示が入力されていないと判定されると(ステップS10;NO)、撮像制御部3の撮像停止部3aは、電子撮像部2による被写体存在画像P2の撮像を停止させ、中央制御部13は、処理をステップS1に戻す。
なお、ステップS1以降の処理は、上記と同様であり、その詳細な説明は省略する。
Next, the central control unit 13 determines whether or not an imaging instruction for the subject existing image P2 is input based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user (step S10).
Here, when it is determined that the imaging instruction for the subject presence image P2 is not input (step S10; NO), the imaging stop unit 3a of the imaging control unit 3 captures the subject presence image P2 by the electronic imaging unit 2. The central control unit 13 returns the processing to step S1.
In addition, the process after step S1 is the same as that of the above, The detailed description is abbreviate | omitted.

一方、ステップS10にて、被写体存在画像P2の撮像指示が入力されたと判定されると(ステップS10;YES)、撮像制御部3は、被写体存在画像P2の光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS11)。即ち、閉領域A1内の同色領域A2は、被写体非存在画像P1の背景とほぼ等しい色であることから、当該同色領域A2の切り抜きを適正に行うことができない虞があるものの、ユーザの意志によって被写体画像の閉領域A1の同色領域A2以外の部分の画像を切り抜きたい場合には、電子撮像部2及び撮像制御部3は、被写体存在画像P2の光学像を所定の撮像条件で撮像する。
なお、所定の撮像条件は、被写体非存在画像P1の撮像後に固定された撮像条件であっても良いし、当該被写体存在画像P2の撮像タイミングで新たに設定された撮像条件であっても良い。
そして、画像データ生成部4は、電子撮像部2から転送された被写体存在画像P2のYUVデータを生成した後、当該被写体存在画像P2のYUVデータを画像メモリ5に一時的に記憶させる。
On the other hand, if it is determined in step S10 that an instruction to capture the subject existing image P2 is input (step S10; YES), the imaging control unit 3 electronically captures the optical image of the subject existing image P2 under a predetermined imaging condition. The image is taken by the unit 2 (step S11). That is, the same color area A2 in the closed area A1 is substantially the same color as the background of the subject non-existing image P1, and therefore the same color area A2 may not be properly cut out, but depending on the user's will When it is desired to cut out an image of a portion other than the same color area A2 of the closed area A1 of the subject image, the electronic imaging unit 2 and the imaging control unit 3 capture an optical image of the subject existing image P2 under a predetermined imaging condition.
Note that the predetermined imaging condition may be an imaging condition that is fixed after the imaging of the subject non-existing image P1, or may be an imaging condition that is newly set at the imaging timing of the subject existing image P2.
Then, after generating the YUV data of the subject existing image P2 transferred from the electronic imaging unit 2, the image data generating unit 4 temporarily stores the YUV data of the subject existing image P2 in the image memory 5.

一方、ステップS8にて、ライブビュー画像の閉領域A1内に同色領域A2が存しないと判定されると(ステップS8;NO)、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて、被写体存在画像P2の撮像指示が入力されたか否かを判定する(ステップS12)。
また、ステップS7にて、ライブビュー画像(被写体存在画像P2)内に閉領域A1が存しないと判定されると(ステップS7;NO)、中央制御部13は、ステップS12に移し、上記と同様に、被写体存在画像P2の撮像指示が入力されたか否かを判定する(ステップS12)。
ステップS12にて、被写体存在画像P2の撮像指示が入力されていないと判定されると(ステップS12;NO)、中央制御部13は、処理をステップS4に戻し、上記のように、撮像制御部3は、レンズ部1を通過した画像の光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から被写体存在画像P2に係る画像フレームを読み出させることで、ライブビュー画像を撮像させる(ステップS4)。
なお、ステップS4以降の処理は、上記と同様であり、その詳細な説明は省略する。
On the other hand, when it is determined in step S8 that the same color area A2 does not exist in the closed area A1 of the live view image (step S8; NO), the central control unit 13 causes the shutter button 12a of the operation input unit 12 by the user to be used. Based on the predetermined operation, it is determined whether or not an imaging instruction for the subject presence image P2 has been input (step S12).
If it is determined in step S7 that the closed region A1 does not exist in the live view image (subject present image P2) (step S7; NO), the central control unit 13 moves to step S12 and the same as above. In step S12, it is determined whether or not an imaging instruction for the subject presence image P2 has been input.
When it is determined in step S12 that an instruction to capture the subject presence image P2 has not been input (step S12; NO), the central control unit 13 returns the process to step S4, and as described above, the imaging control unit. 3, the optical image of the image that has passed through the lens unit 1 is converted into a two-dimensional image signal by the electronic imaging unit 2, and the image frame related to the subject existing image P <b> 2 is read from the imaging region of the electronic imaging unit 2. Thus, a live view image is captured (step S4).
In addition, the process after step S4 is the same as that of the above, The detailed description is abbreviate | omitted.

そして、ステップS12にて、被写体存在画像P2の撮像指示が入力されたと判定されると(ステップS12;YES)、中央制御部13は、処理をステップS11に移行して、撮像制御部3は、被写体存在画像P2の光学像を被写体非存在画像P1の撮像後に固定された撮像条件で電子撮像部2により撮像させる(ステップS11)。   If it is determined in step S12 that an imaging instruction for the subject presence image P2 has been input (step S12; YES), the central control unit 13 proceeds to step S11, and the imaging control unit 3 An optical image of the subject presence image P2 is imaged by the electronic imaging unit 2 under an imaging condition fixed after the subject non-existence image P1 is imaged (step S11).

次に、中央制御部13は、特徴量演算部6、ブロックマッチング部7及び画像処理部8に、画像メモリ5に一時記憶されている被写体非存在画像P1のYUVデータを基準として、被写体存在画像P2のYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS13)。
具体的には、特徴量演算部6は、被写体非存在画像P1のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P2内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P1と被写体存在画像P2間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部8の位置合わせ部8eは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P2の射影変換行列を算出する。
Next, the central control unit 13 uses the feature amount calculation unit 6, the block matching unit 7, and the image processing unit 8 as a reference for the subject presence image based on the YUV data of the subject non-existence image P 1 temporarily stored in the image memory 5. A projective transformation matrix for projectively transforming the P2 YUV data is calculated using a predetermined image transformation model (for example, a similarity transformation model or a joint transformation model) (step S13).
Specifically, the feature amount calculation unit 6 selects a predetermined number (or a predetermined number or more) of highly featured block regions (feature points) based on the YUV data of the subject non-existing image P1, and selects the relevant block. Is extracted as a template. Then, the block matching unit 7 searches the subject existing image P2 for a position where the pixel value of the template extracted by the feature extraction process is optimally matched, and the evaluation value of the pixel value difference is the best. An optimum offset between the subject non-existing image P1 and the subject existing image P2 is calculated as a motion vector of the template. Then, the alignment unit 8e of the image processing unit 8 statistically calculates the entire motion vector based on the motion vectors of the plurality of templates calculated by the block matching unit 7, and performs feature point correspondence related to the motion vector. The projection transformation matrix of the subject existing image P2 is calculated by using this.

次に、中央制御部13は、位置合わせ部8eに、算出された射影変換行例に基づいて被写体存在画像P2を射影変換させることで、被写体存在画像P2のYUVデータと被写体非存在画像P1のYUVデータとを位置合わせする処理を行わせる(ステップS14)。   Next, the central control unit 13 causes the alignment unit 8e to perform projective transformation of the subject presence image P2 based on the calculated projective transformation example, thereby obtaining the YUV data of the subject presence image P2 and the subject non-existence image P1. A process of aligning the YUV data is performed (step S14).

そして、中央制御部13は、画像処理部8の被写体画像抽出部8fに、被写体存在画像P2から被写体Sが含まれる被写体画像を抽出する処理を行わせる(ステップS15)。
具体的には、被写体画像抽出部8fは、被写体存在画像P2のYUVデータと被写体非存在画像P1のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体画像抽出部8fは、ローパスフィルタをかけた被写体存在画像P2と被写体非存在画像P1との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体画像抽出部8fは、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体画像抽出部8fは、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体画像として特定し、収縮分を修正するための膨張処理を行う。
Then, the central control unit 13 causes the subject image extraction unit 8f of the image processing unit 8 to perform processing for extracting a subject image including the subject S from the subject presence image P2 (step S15).
Specifically, the subject image extraction unit 8f applies a low-pass filter to each of the YUV data of the subject presence image P2 and the YUV data of the subject non-existence image P1 to remove high-frequency components of each image. Thereafter, the subject image extraction unit 8f calculates a difference for each corresponding pixel between the subject presence image P2 and the subject non-existence image P1 subjected to the low-pass filter, and generates a difference map. Subsequently, the subject image extraction unit 8f binarizes the dissimilarity map relating to each pixel with a predetermined threshold value, and then performs a contraction process in order to remove an area in which the dissimilarity is caused by fine noise or camera shake from the dissimilarity map. Do. Thereafter, the subject image extraction unit 8f performs a labeling process, removes regions below a predetermined value and regions other than the maximum region, identifies the largest island pattern as a subject image, and corrects the shrinkage. The expansion process is performed.

次に、中央制御部13は、画像処理部8の位置情報生成部8gに、抽出された被写体画像の被写体存在画像P2内での位置を示すアルファマップを生成させる(ステップS16)。   Next, the central control unit 13 causes the position information generation unit 8g of the image processing unit 8 to generate an alpha map indicating the position of the extracted subject image in the subject existing image P2 (step S16).

その後、中央制御部13は、画像処理部8の切抜画像生成部8hに、被写体画像を所定の単一色画像と合成した被写体画像の画像データを生成する処理を行わせる(ステップS17)。
具体的には、切抜画像生成部8hは、被写体存在画像P2、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P2の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
Thereafter, the central control unit 13 causes the cut-out image generation unit 8h of the image processing unit 8 to perform processing for generating image data of the subject image obtained by combining the subject image with a predetermined single color image (step S17).
Specifically, the cut-out image generation unit 8h reads out the subject existing image P2, the single color image, and the alpha map and develops them in the image memory 5, and thereafter, for all the pixels of the subject existing image P2, pixels with an alpha value of 0. (Α = 0) for transmission, and for pixels with an alpha value of 0 <α <1, (0 <α <1), blending with a predetermined single color is performed, and for pixels with an alpha value of 1 (α = 1) Do nothing and do not transmit light to a predetermined single color.

その後、中央制御部13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部8gにより生成されたアルファマップと被写体画像の画像データを対応付けて、当該被写体切り抜き画像の画像データの拡張子を「.jpe」として一ファイルで保存させる(ステップS18)。   Thereafter, the central control unit 13 associates the alpha map generated by the position information generation unit 8g of the image processing unit 8 with the image data of the subject image in a predetermined storage area of the recording medium 9, and extracts the subject clipped image. The extension of the image data is saved as one file with “.jpe” (step S18).

以上のように、実施形態1の撮像装置100によれば、背景内に被写体Sの存する被写体存在画像P2の撮像に際して、この被写体存在画像P2における被写体非存在画像P1とは異なる色の画素で囲繞された閉領域A1の中に、当該被写体非存在画像P1とほぼ等しい色の同色領域A2が存する場合に、当該被写体存在画像P2における閉領域A1内に同色領域A2が存する旨を報知するので、被写体存在画像P2からの被写体領域の切り抜きが失敗する虞のある同色領域A2の部分をユーザに把握させることができる。これにより、ユーザが被写体Sの背景や当該被写体Sや構図などの変更等を行うことで、被写体切り抜き処理にて、撮像された被写体存在画像P2の同色領域A2の色調が被写体非存在画像の色調とほぼ等しいために当該同色領域A2を切り抜くことができないといったことがなくなって、被写体存在画像P2からの被写体領域の切り抜きの失敗を適正に防止することができる。この結果、被写体切り抜き処理のために被写体非存在画像P1や被写体存在画像P2を何度も撮り直さなければならないといったことがなくなる。
具体的には、被写体非存在画像P1の背景と同一の背景内に被写体Sの存する被写体存在画像P2を撮像する際に、ライブビュー表示されている被写体存在画像P2における閉領域A1の同色領域A2の色調が被写体非存在画像P1の色調とほぼ等しい場合に、当該同色領域A2の色を他の色に変更したり、変更後の色を所定間隔で点灯(点滅)表示することで、当該同色領域A2をユーザに識別可能に報知するので、被写体存在画像P2からの被写体領域の切り抜きが失敗する虞のある同色領域A2の部分を、記録用の被写体存在画像P2の撮像動作を行う前にユーザに視認させることができる。これにより、ユーザに対してこのままでは被写体領域の適正な切り抜きが失敗する虞があること、さらに、被写体Sの背景や被写体Sや構図などの変更等を喚起することができる。
また、被写体存在画像P2における閉領域A1内に同色領域A2が存する場合には、電子撮像部2による被写体存在画像P2の撮像を停止させるので、被写体領域の切り抜きが失敗する虞のある被写体存在画像の取得を防止することができる。
As described above, according to the imaging apparatus 100 of the first embodiment, when imaging the subject presence image P2 in which the subject S is present in the background, the surrounding area is surrounded by pixels of a different color from the subject nonexistence image P1 in the subject presence image P2. When the same color area A2 having substantially the same color as the subject non-existing image P1 exists in the closed area A1, the fact that the same color area A2 exists in the closed area A1 in the subject existing image P2 is notified. It is possible to allow the user to grasp a portion of the same color area A2 in which clipping of the subject area from the subject existing image P2 may fail. Accordingly, when the user changes the background of the subject S, the subject S, the composition, or the like, the color tone of the same color area A2 of the subject existing image P2 captured by the subject clipping process is changed to the color tone of the subject non-existing image. Therefore, the same color area A2 cannot be cut out, and it is possible to appropriately prevent failure in cutting out the subject area from the subject existing image P2. As a result, the subject nonexistent image P1 and the subject present image P2 need not be taken again and again for the subject clipping process.
Specifically, when the subject presence image P2 in which the subject S exists within the same background as the background of the subject non-existence image P1, the same color region A2 of the closed region A1 in the subject presence image P2 displayed in live view is displayed. When the color tone of the same color area A2 is substantially equal to the color tone of the subject non-existing image P1, the color of the same color area A2 is changed to another color, or the changed color is lit (flashed) at a predetermined interval. Since the area A2 is notified to the user in an identifiable manner, the user can detect the portion of the same color area A2 in which clipping of the subject area from the subject existing image P2 may fail before the recording operation of the subject existing image P2 is performed. Can be visually recognized. Accordingly, it is possible to alert the user that the proper clipping of the subject area may fail if the state is unchanged, and to change the background of the subject S, the subject S, the composition, and the like.
When the same color area A2 exists in the closed area A1 in the subject existing image P2, the imaging of the subject existing image P2 by the electronic imaging unit 2 is stopped, so that the subject existing image that may fail to crop the subject area Can be prevented.

なお、上記実施形態1にあっては、先に被写体非存在画像P1を撮像し、その後で被写体存在画像P2を撮像するようにしたが、撮像の順序は一例であってこれに限られるものではなく、これらの順序が逆となるように適宜任意に変更可能である。つまり、先に被写体存在画像P2を撮像する場合は、閉領域A1内の領域と被写体非存在画像P1とが略同色であるか否かを判断する。
また、被写体非存在画像P1及び被写体存在画像P2の両方を撮像するような構成としたが、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、被写体非存在画像P1は、当該撮像装置100以外の撮像装置にて撮像され記録媒体11aや所定の通信回線を介して取得した画像であっても良い。
In the first embodiment, the subject non-existence image P1 is captured first, and then the subject presence image P2 is captured. However, the imaging order is an example, and the present invention is not limited to this. However, the order can be arbitrarily changed so that the order is reversed. That is, when the subject presence image P2 is captured first, it is determined whether or not the region in the closed region A1 and the subject non-existence image P1 have substantially the same color.
Moreover, although it was set as the structure which images both the to-be-photographed object nonexistence image P1 and the to-be-photographed object P2, it is an example and it is not restricted to this, It can change arbitrarily arbitrarily. For example, the subject non-existence image P1 may be an image captured by an imaging device other than the imaging device 100 and acquired via the recording medium 11a or a predetermined communication line.

[実施形態2]
以下に、本発明を適用した実施形態2の撮像装置200について図6〜図10を参照して説明する。
実施形態2の撮像装置200は、所定の背景内に被写体Sの存する被写体存在画像P2を所定のタイミングで撮像し、当該被写体存在画像P2の背景部分の非平坦度が所定値以下であるか否かを判定する。そして、撮像装置200は、被写体存在画像P2における、非平坦度が所定値以下であると判定された背景部分とは異なる色の画素でほぼ囲まれた閉領域A1の中に、当該背景部分とほぼ等しい色の同色領域A2が存すると判定された場合に、当該同色領域A2が存する旨を報知する。
なお、実施形態2の撮像装置200は、以下に説明する以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、その説明は省略する。
[Embodiment 2]
Hereinafter, an imaging apparatus 200 according to the second embodiment to which the present invention is applied will be described with reference to FIGS.
The imaging apparatus 200 according to the second embodiment captures the subject presence image P2 in which the subject S is present in a predetermined background at a predetermined timing, and whether or not the non-flatness of the background portion of the subject presence image P2 is equal to or less than a predetermined value. Determine whether. Then, the imaging apparatus 200 includes the background portion in the closed region A1 that is substantially surrounded by pixels of a different color from the background portion in which the non-flatness is determined to be equal to or less than the predetermined value in the subject presence image P2. When it is determined that the same color area A2 having substantially the same color exists, the fact that the same color area A2 exists is notified.
Note that the imaging apparatus 200 according to the second embodiment has substantially the same configuration as the imaging apparatus 100 according to the first embodiment except for the points described below, and the description thereof is omitted.

図6は、実施形態2の撮像装置200の概略構成を示すブロック図である。
図6に示すように、実施形態2の撮像装置200の画像処理部8は、画像取得部8aと、分割部8bと、色算出部8cと、画像領域判定部8dと、切抜画像生成部8hとに加えて、非平坦度演算部8iと、非平坦度判定部8jと、背景生成部8kと、マスク生成部8lとを具備している。
FIG. 6 is a block diagram illustrating a schematic configuration of the imaging apparatus 200 according to the second embodiment.
As shown in FIG. 6, the image processing unit 8 of the imaging apparatus 200 according to the second embodiment includes an image acquisition unit 8a, a division unit 8b, a color calculation unit 8c, an image region determination unit 8d, and a cut-out image generation unit 8h. Are provided with a non-flatness calculation unit 8i, a non-flatness determination unit 8j, a background generation unit 8k, and a mask generation unit 8l.

非平坦度演算部8iは、被写体存在画像P2、当該被写体存在画像P2の背景部分の非平坦度を演算する。
即ち、非平坦度演算部8iは、画像処理部8の分割部8bにより分割された被写体存在画像P2の複数の画像ブロックB、…内の画素値のばらつき量(非平坦度)を算出する。具体的には、非平坦度演算部8iは、背景生成処理にて、被写体存在画像P2の複数の画像ブロックB、…の各々についてのばらつき量として、標準偏差を下記式(1)に従って算出する。

Figure 2011191860
なお、上記式(1)において、b:各ブロック領域の画素値としては、例えば、輝度値が挙げられる。 The non-flatness calculator 8i calculates the non-flatness of the subject existing image P2 and the background portion of the subject existing image P2.
That is, the non-flatness calculation unit 8i calculates the variation amount (non-flatness) of the pixel values in the plurality of image blocks B of the subject existing image P2 divided by the dividing unit 8b of the image processing unit 8. Specifically, the non-flatness calculation unit 8i calculates a standard deviation according to the following formula (1) as a variation amount for each of the plurality of image blocks B,. .
Figure 2011191860
In the above formula (1), b: a pixel value of each block area includes, for example, a luminance value.

非平坦度判定部8jは、非平坦度演算部8iにより演算された各画像ブロックBの非平坦度の判定を行う。
即ち、非平坦度判定部8jは、背景生成処理にて、ブロック内の画素値のばらつき量が所定値以下であるか否かを判定する。具体的には、例えば、非平坦度判定部8jは、被写体存在画像P2(図4(c)参照)の複数の画像ブロックB、…のうち、被写体Sを含む画像ブロックBについては、ブロック内の画素値のばらつき量が大きく、画素値のばらつき量が所定値以下であると判定しない。一方で、非平坦度判定部8jは、特徴量の少ない無地の背景をバックに撮像される被写体存在画像P2の複数の画像ブロックB、…のうち、被写体Sを含まない画像ブロックB、つまり、特徴量の少ない無地の背景部分は、ブロック内の画素値のばらつき量が被写体Sを含む画像ブロックBに比して大幅に小さくなり、画素値のばらつき量が所定値以下であると判定する。
そして、画像処理部8は、当該非平坦度判定部8jによる判定結果に基づいて、非平坦度が所定値以下である画像ブロックBを特定する。即ち、画像処理部8は、非平坦度判定部8jによる判定の結果、ブロック内の画素値の非平坦度が所定値以下であると判定された少なくとも一の画像ブロックBを含んでなる画像領域を特定する。
The non-flatness determination unit 8j determines the non-flatness of each image block B calculated by the non-flatness calculation unit 8i.
That is, the non-flatness determination unit 8j determines whether or not the variation amount of the pixel value in the block is equal to or less than a predetermined value in the background generation process. Specifically, for example, the non-flatness determination unit 8j performs intra-block determination on the image block B including the subject S among the plurality of image blocks B of the subject existing image P2 (see FIG. 4C). The pixel value variation amount is large, and the pixel value variation amount is not determined to be equal to or less than a predetermined value. On the other hand, the non-flatness determination unit 8j is an image block B that does not include the subject S among the plurality of image blocks B of the subject existing image P2 that is imaged against a plain background with a small feature amount, that is, The plain background portion having a small feature amount has a pixel value variation amount in the block that is significantly smaller than that of the image block B including the subject S, and the pixel value variation amount is determined to be equal to or less than a predetermined value.
Then, the image processing unit 8 identifies an image block B whose non-flatness is a predetermined value or less based on the determination result by the non-flatness determining unit 8j. That is, the image processing unit 8 includes an image region including at least one image block B in which the non-flatness of the pixel values in the block is determined to be equal to or less than a predetermined value as a result of the determination by the non-flatness determining unit 8j. Is identified.

背景生成部8kは、クロマキー技術を利用して被写体領域を抽出するための抽出用背景画像(図示略)を生成する。
即ち、背景生成部8kは、非平坦度判定部8jにより画素値の非平坦度が所定値以下であると判定された被写体存在画像P2の画像ブロックBの色とほぼ等しい色を背景色とする抽出用背景画像を生成する。例えば、業務用机やホワイトボード等のように特徴量の少ない無地の背景をバックに被写体Sを撮影した場合には、背景生成部8kは、無地の背景とほぼ等しい色の抽出用背景画像を生成する。
なお、クロマキーとは、特定の色背景を用いて一の画像データから被写体Sを切り抜く手法である。クロマキーでは、通常、背景に被写体Sと補色の関係にある青や緑のスクリーンを用いるようになっており、被写体存在画像P2における画素値のばらつき量が所定値以下である画像ブロックBとほぼ等しい色の抽出用背景画像を生成することで、抽出用背景画像と被写体存在画像P2の色情報を基にして背景部分と被写体部分を分離することができる。
The background generation unit 8k generates an extraction background image (not shown) for extracting a subject area using the chroma key technique.
That is, the background generation unit 8k sets the background color to a color substantially equal to the color of the image block B of the subject existing image P2 for which the non-flatness of the pixel value is determined to be equal to or less than the predetermined value by the non-flatness determination unit 8j. A background image for extraction is generated. For example, when the subject S is photographed against a plain background with a small amount of feature, such as a business desk or a whiteboard, the background generation unit 8k generates an extraction background image having substantially the same color as the plain background. Generate.
Note that the chroma key is a method of cutting out the subject S from one image data using a specific color background. In the chroma key, a blue or green screen having a complementary color relationship with the subject S is usually used as the background, and the amount of variation in pixel values in the subject existing image P2 is almost equal to the image block B having a predetermined value or less. By generating the color extraction background image, the background portion and the subject portion can be separated based on the color information of the extraction background image and the subject presence image P2.

画像領域判定部8dは、被写体存在画像P2における抽出用背景画像とは異なる色の画素でほぼ囲まれた閉領域A1の中に、当該抽出用背景画像とほぼ等しい色の同色領域A2が存するか否かを判定する。
即ち、画像領域判定部8dは、被写体切り抜き処理にて、分割部8bにより分割された被写体存在画像P2の複数の画像ブロックB、…の各々の代表色(例えば、平均色)に基づいて、被写体存在画像P2の閉領域A1の中に同色領域A2が存するか否かを判定する。具体的には、画像領域判定部8dは、被写体存在画像P2の複数の画像ブロックB、…の各々の平均色と背景生成部8kにより生成された抽出用背景画像の色とを比較判定することで、被写体存在画像P2における抽出用背景画像の色とは異なる色の画素で囲繞された閉領域A1が存するか否かを判定する。そして、閉領域A1が特定されると、画像領域判定部8dは、被写体存在画像P2の閉領域A1内の各画像ブロックBの平均色と抽出用背景画像の色とを比較判定することで、閉領域A1内に抽出用背景画像の色とほぼ等しい色の画素からなる同色領域A2が存するか否かを判定する。
The image area determination unit 8d determines whether the same color area A2 having substantially the same color as that of the extraction background image exists in the closed area A1 that is substantially surrounded by pixels of a color different from that of the extraction background image in the subject existing image P2. Determine whether or not.
That is, the image area determination unit 8d performs subject extraction based on the representative colors (for example, average colors) of the plurality of image blocks B of the subject existing image P2 divided by the division unit 8b in the subject clipping process. It is determined whether or not the same color area A2 exists in the closed area A1 of the existing image P2. Specifically, the image area determination unit 8d compares and determines the average color of each of the plurality of image blocks B of the subject existing image P2 and the color of the extraction background image generated by the background generation unit 8k. Thus, it is determined whether or not there is a closed area A1 surrounded by pixels of a color different from the color of the extraction background image in the subject existing image P2. When the closed region A1 is specified, the image region determination unit 8d compares and determines the average color of each image block B in the closed region A1 of the subject existing image P2 and the color of the extraction background image. It is determined whether or not there is a same color area A2 composed of pixels of approximately the same color as the color of the background image for extraction in the closed area A1.

なお、抽出用背景画像と被写体存在画像P2との色の判定にあっては、厳密に判定しても良いし、抽出用背景画像や被写体存在画像P2の各色に対する差分が所定範囲の色は誤差範囲内であるしても良い。また、誤差範囲は、予め設定された所定の固定された範囲であっても良いし、ユーザによる操作入力部12の所定操作に基づいて手動で、或いは、画像領域判定部8dや中央制御部13等が自動的に適宜任意に変更可能としても良い。
ここで、画像領域判定部8dは、電子撮像部2及び撮像制御部3により撮像された被写体存在画像P2に、抽出用背景画像とは異なる色の画素でほぼ囲まれた閉領域(第1領域)A1が存するか否かを判定する第1領域判定手段、及び閉領域A1に当該抽出用背景画像とほぼ等しい色の同色領域(第2領域)A2が存するか否かを判定する第2領域判定手段を構成している。
It should be noted that the color determination between the extraction background image and the subject presence image P2 may be performed strictly, or the difference between the colors of the extraction background image and the subject presence image P2 within a predetermined range is an error. It may be within the range. The error range may be a predetermined fixed range set in advance, manually based on a predetermined operation of the operation input unit 12 by the user, or the image area determination unit 8d and the central control unit 13. Etc. may be automatically and arbitrarily changed as appropriate.
Here, the image area determination unit 8d is a closed area (first area) in which the subject existing image P2 captured by the electronic imaging unit 2 and the imaging control unit 3 is substantially surrounded by pixels of a color different from the extraction background image. ) First area determination means for determining whether or not A1 exists, and a second area for determining whether or not the same color area (second area) A2 having the same color as the extraction background image exists in the closed area A1 The determination means is configured.

マスク生成部8lは、被写体存在画像P2から被写体領域を抽出するためのマスク画像を生成する。
即ち、マスク生成部8lは、抽出用背景画像と被写体存在画像P2の対応する各画素の相違度Dを下記式(2)に従って算出して相違度マップを生成する。

Figure 2011191860
なお、上記式(2)にあっては、抽出用背景画像のYUVデータを「Y」、「U」、「V」で表し、被写体存在画像P2のYUVデータを「Yc」、「Uc」、「Vc」で表す。また、Gは、色差信号U、Vのゲインを表している。
そして、マスク生成部8lは、生成した相違度マップを所定の閾値で二値化(0、255)してマスク画像を生成する。 The mask generation unit 8l generates a mask image for extracting a subject area from the subject presence image P2.
That is, the mask generation unit 81 generates a difference map by calculating the difference D between corresponding pixels of the extraction background image and the subject presence image P2 according to the following equation (2).
Figure 2011191860
In the above equation (2), the YUV data of the extraction background image is represented by “Y”, “U”, “V”, and the YUV data of the subject existing image P2 is “Yc”, “Uc”, Represented by “Vc”. G represents the gain of the color difference signals U and V.
Then, the mask generation unit 8l generates a mask image by binarizing (0, 255) the generated difference map with a predetermined threshold.

また、マスク生成部8lは、細かいノイズを除去するための収縮処理を行って所定値よりも小さい画素集合を除いた後、収縮分を修正するための膨張処理を行い、その後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めも行う。さらに、マスク生成部8lは、領域情報に対して平均化フィルタをかけて領域の縁部に合成階調をつける。   Further, the mask generation unit 8l performs a contraction process for removing fine noise and removes a pixel set smaller than a predetermined value, and then performs a expansion process for correcting the contraction, and then the same connected component is obtained. By performing a labeling process for assigning the same numbers to the pixel sets to be configured, a hole area is also filled by replacing an area having a predetermined ratio or less in the number of constituent pixels of the effective area with the effective area. Further, the mask generation unit 8l applies an averaging filter to the region information to add a composite gradation to the edge of the region.

切抜画像生成部8hは、被写体Sの画像を所定の単一色背景画像(図示略)と合成して被写体切り抜き画像(図示略)の画像データを生成する。
即ち、切抜画像生成部8hは、クロマキー技術を利用して、マスク生成部8lにより生成されたマスク画像を用いて被写体存在画像P2から被写体画像を切り出して、単一色背景画像と合成して被写体切り抜き画像の画像データを生成する。
なお、マスク画像の縁部分には、合成階調がつけられているため、切り出された被写体画像と単一色背景画像との境界部分がはっきりしていない自然な感じに合成することができる。
ここで、切抜画像生成部8hは、被写体存在画像P2から被写体Sが含まれる被写体領域を切り抜いて被写体画像を生成する画像生成手段を構成している。
The cutout image generation unit 8h combines the image of the subject S with a predetermined single color background image (not shown) to generate image data of the subject cutout image (not shown).
That is, the cut-out image generation unit 8h uses the chroma key technique to cut out the subject image from the subject presence image P2 using the mask image generated by the mask generation unit 8l and combines it with the single color background image to cut out the subject. Generate image data of an image.
It should be noted that since the synthetic gradation is given to the edge portion of the mask image, the mask image can be synthesized with a natural feeling that the boundary portion between the clipped subject image and the single color background image is not clear.
Here, the cut-out image generation unit 8h constitutes an image generation unit that cuts out a subject area including the subject S from the subject presence image P2 to generate a subject image.

次に、撮像装置200による被写体切り抜き処理について、図7〜図10を参照して説明する。
図7は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
Next, the subject clipping process performed by the imaging apparatus 200 will be described with reference to FIGS.
FIG. 7 is a flowchart illustrating an example of an operation related to the subject clipping process.

図7に示すように、先ず、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて、撮像制御部3は、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の撮像条件を調整させて、背景内に所定の被写体(例えば、被写体S)が存する被写体存在画像P2(例えば、図4(c)参照)の光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS51)。
そして、画像データ生成部4は、電子撮像部2から転送された被写体存在画像P2のYUVデータを生成した後、当該被写体存在画像P2のYUVデータを画像メモリ5に一時的に記憶させる。
As shown in FIG. 7, first, based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user, the imaging control unit 3 sets the focus lens focus position and exposure conditions (shutter speed, aperture, amplification factor, etc.). ) And white balance and the like, and an optical image of a subject existing image P2 (for example, see FIG. 4C) in which a predetermined subject (for example, the subject S) exists in the background is adjusted under the predetermined imaging condition. An image is picked up by the electronic image pickup unit 2 (step S51).
Then, after generating the YUV data of the subject existing image P2 transferred from the electronic imaging unit 2, the image data generating unit 4 temporarily stores the YUV data of the subject existing image P2 in the image memory 5.

次に、中央制御部13は、画像処理部8に、被写体存在画像P2から被写体領域を抽出するための抽出用背景画像(図示略)を生成させる抽出用背景生成処理を行わせる(ステップS52)。   Next, the central control unit 13 causes the image processing unit 8 to perform extraction background generation processing for generating an extraction background image (not shown) for extracting a subject area from the subject existing image P2 (step S52). .

ここで、抽出用背景生成処理について図8及び図9を参照して詳細に説明する。
図8及び図9は、抽出用背景生成処理に係る動作の一例を示すフローチャートである。
図8に示すように、まず、中央制御部13は、処理ブロックカウンタSBC及び有効ブロックカウンタYBCをそれぞれ初期値0で設定し(ステップS61)、画像メモリ5に書き込む。
そして、分割部8bは、画像メモリ5に一時的に記憶されている被写体存在画像P2のYUVデータを取得して、当該被写体存在画像P2を複数の画像ブロックB、…(図5(a)参照)に分割する。そして、分割部8bは、分割された複数の画像ブロックB、…の総数を定数Bmaxとして設定し(ステップS62)、画像メモリ5に書き込む。
Here, the extraction background generation processing will be described in detail with reference to FIGS.
8 and 9 are flowcharts showing an example of operations related to the extraction background generation processing.
As shown in FIG. 8, first, the central control unit 13 sets the processing block counter SBC and the effective block counter YBC with initial values 0 (step S61) and writes them in the image memory 5.
Then, the dividing unit 8b obtains the YUV data of the subject existing image P2 temporarily stored in the image memory 5, and converts the subject existing image P2 into a plurality of image blocks B (see FIG. 5A). ). Then, the dividing unit 8b sets the total number of the plurality of divided image blocks B,... As a constant Bmax (step S62) and writes it in the image memory 5.

続けて、非平坦度演算部8iは、被写体存在画像P2の複数の画像ブロックB、…のうち、未だ画素値のばらつき量としての標準偏差を算出していない画像ブロックBの中の一の画像ブロックBについて、画素値のばらつき量としての標準偏差を下記式(1)に従って算出する(ステップS63)。

Figure 2011191860
Subsequently, the non-flatness calculation unit 8i, among the plurality of image blocks B of the subject existing image P2,..., One image in the image block B that has not yet calculated the standard deviation as the pixel value variation amount. For block B, the standard deviation as the variation amount of the pixel value is calculated according to the following equation (1) (step S63).
Figure 2011191860

次に、非平坦度判定部8jは、算出された画像ブロックBのばらつき量が所定値以下であるか否かを判定する(ステップS64)。
ここで、ばらつき量が所定値以下であると判定されると(ステップS64;YES)、色算出部8cは、ステップS64においてばらつき量が所定値以下であると判定された画像ブロックBについて、各画像ブロックBを代表する平均色を算出する(ステップS65)。そして、中央制御部13は、有効ブロックカウンタYBCに1を加算(YBC=YBC+1)する(ステップS66)。
そして、中央制御部13は、処理ブロックカウンタSBCに1を加算(SBC=SBC+1)する(ステップS67)。
Next, the non-flatness determination unit 8j determines whether or not the calculated variation amount of the image block B is equal to or less than a predetermined value (step S64).
Here, if it is determined that the variation amount is equal to or less than the predetermined value (step S64; YES), the color calculation unit 8c determines each of the image blocks B for which the variation amount is determined to be equal to or less than the predetermined value in step S64. An average color representing the image block B is calculated (step S65). The central control unit 13 adds 1 to the effective block counter YBC (YBC = YBC + 1) (step S66).
The central control unit 13 then adds 1 to the processing block counter SBC (SBC = SBC + 1) (step S67).

一方、ステップS64にて、ばらつき量が所定値以下でないと判定されると(ステップS64;NO)、中央制御部13は、ステップS65、S66の処理を行わず、処理をステップS67に移行して、処理ブロックカウンタSBCに1を加算(SBC=SBC+1)する。   On the other hand, when it is determined in step S64 that the variation amount is not equal to or less than the predetermined value (step S64; NO), the central control unit 13 does not perform the processes of steps S65 and S66, and shifts the process to step S67. Then, 1 is added to the processing block counter SBC (SBC = SBC + 1).

ステップS67の処理後、中央制御部13は、処理ブロックカウンタSBCの値が画像ブロックBの総数Bmaxの値と等しいか否かを判定する(ステップS68)。
ここで、処理ブロックカウンタSBCの値が画像ブロックBの総数Bmaxの値と等しくないと判定されると(ステップS68;NO)、中央制御部13は、処理をステップS63に戻し、それ以降の処理を行う。つまり、非平坦度演算部8iが全ての画像ブロックBに対して画素値のばらつき量としての標準偏差を算出し、非平坦度判定部8jが画素値のばらつき量が所定値以下であるか否かを判定する。そして、中央制御部13は、ばらつき量が所定値以下であると判定された画像ブロックBの数を有効ブロックカウンタYBCの値によりカウントする。
After the processing in step S67, the central control unit 13 determines whether or not the value of the processing block counter SBC is equal to the value of the total number Bmax of the image blocks B (step S68).
Here, if it is determined that the value of the processing block counter SBC is not equal to the value of the total number Bmax of the image blocks B (step S68; NO), the central control unit 13 returns the processing to step S63, and the subsequent processing I do. That is, the non-flatness calculation unit 8i calculates the standard deviation as the variation amount of the pixel value for all the image blocks B, and the non-flatness determination unit 8j determines whether the variation amount of the pixel value is equal to or less than a predetermined value. Determine whether. Then, the central control unit 13 counts the number of image blocks B for which the variation amount is determined to be less than or equal to a predetermined value based on the value of the effective block counter YBC.

ステップS68にて、処理ブロックカウンタSBCの値が画像ブロックBの総数Bmaxの値と等しいと判定される(ステップS68;YES)ということは、全ての画素ブロックに対する画素値のばらつき量としての標準偏差の算出及びそのばらつき量が所定値以下であるか否かの判定が完了したことを表す。
そして、処理ブロックカウンタSBCの値が画像ブロックBの総数Bmaxの値と等しいと判定されると(ステップS68;YES)、図9に示すように、画像処理部8は、有効ブロックカウンタYBCの値が必要ブロック数以上であるか否かを判定する(ステップS69)。
In step S68, it is determined that the value of the processing block counter SBC is equal to the value of the total number Bmax of the image blocks B (step S68; YES) means that the standard deviation as the variation amount of the pixel values for all the pixel blocks. And the determination of whether or not the amount of variation is equal to or less than a predetermined value is completed.
When it is determined that the value of the processing block counter SBC is equal to the value of the total number Bmax of the image blocks B (step S68; YES), as shown in FIG. 9, the image processing unit 8 sets the value of the effective block counter YBC. It is determined whether or not is equal to or greater than the required number of blocks (step S69).

ステップS69にて、有効ブロックカウンタYBCの値が必要ブロック数以上であると判定されると(ステップS69;YES)、画像処理部8は、ばらつき量が所定値以下であると判定された画像ブロックBのうち、同一色であるとみなすことができる色のブロック数を同一ブロック数として算出する(ステップS70)。
そして、画像処理部8は、同一ブロック数のうち最大の値をとる最多同一ブロック数を特定して、当該最多同一ブロック数が必要ブロック数以上であるか否かを判定する(ステップS71)。
If it is determined in step S69 that the value of the effective block counter YBC is equal to or greater than the required number of blocks (step S69; YES), the image processing unit 8 determines that the variation amount is equal to or less than a predetermined value. Of B, the number of blocks of a color that can be regarded as the same color is calculated as the same number of blocks (step S70).
Then, the image processing unit 8 specifies the maximum number of identical blocks that takes the maximum value among the same number of blocks, and determines whether or not the maximum number of identical blocks is equal to or greater than the required number of blocks (step S71).

ステップS71にて、最多同一ブロック数が必要ブロック数以上であると判定されると(ステップS71;YES)、背景生成部8kは、最多同一ブロック数に計数された画像ブロックBの平均色を背景色とする抽出用背景画像のYUVデータを生成(ステップS72)する。
次に、画像処理部8の画像領域判定部8dは、被写体非存在画像P1内に、背景生成部8kにより生成された抽出用背景画像の色と異なる色の画素で囲繞された閉領域A1が存するか否かを判定する(ステップS73)。具体的には、画像領域判定部8dは、被写体存在画像P2の複数の画像ブロックB、…の各々の平均色と抽出用背景画像の色とを比較判定することで、被写体存在画像P2における抽出用背景画像の色とは異なる色の画素で囲繞された閉領域A1を特定する。そして、画像領域判定部8dは、当該特定結果に応じて被写体存在画像P2内に閉領域A1が存するか否かを判定する。
If it is determined in step S71 that the number of the most identical blocks is equal to or greater than the required number of blocks (step S71; YES), the background generation unit 8k uses the average color of the image block B counted as the number of the most identical blocks as the background. YUV data of an extraction background image to be a color is generated (step S72).
Next, the image region determination unit 8d of the image processing unit 8 includes a closed region A1 surrounded by pixels of a color different from the color of the extraction background image generated by the background generation unit 8k in the subject non-existing image P1. It is determined whether or not it exists (step S73). Specifically, the image area determination unit 8d compares the average color of each of the plurality of image blocks B,... Of the subject existing image P2 with the color of the extraction background image, thereby extracting the subject existing image P2. A closed region A1 surrounded by pixels of a color different from the color of the background image for use is specified. Then, the image area determination unit 8d determines whether or not the closed area A1 exists in the subject existing image P2 according to the identification result.

ステップS73にて、被写体存在画像P2内に閉領域A1が存すると判定されると(ステップS73;YES)、画像領域判定部8dは、当該閉領域A1内に抽出用背景画像の色とほぼ等しい色の画素からなる同色領域A2が存するか否かを判定する(ステップS74)。具体的には、画像領域判定部8dは、被写体存在画像P2の閉領域A1内の各画像ブロックBの平均色と抽出用背景画像の色とを比較判定することで、閉領域A1内に抽出用背景画像の色とほぼ等しい色の画素からなる同色領域A2が存するか否かを判定する。
ここで、閉領域A1内に同色領域A2が存すると判定されると(ステップS74;YES)、表示制御部9は、表示部10の表示画面に表示されている被写体存在画像P2の閉領域A1内の同色領域A2の色を他の色に変更して表示することで、当該同色領域A2が存する旨を報知して(ステップS75;図5(b)参照)、抽出用背景画像の生成が失敗となる(ステップS76)。
これにより、抽出用背景生成処理を終了する。
If it is determined in step S73 that the closed region A1 exists in the subject existing image P2 (step S73; YES), the image region determination unit 8d is substantially equal to the color of the extraction background image in the closed region A1. It is determined whether or not the same color area A2 composed of color pixels exists (step S74). Specifically, the image area determination unit 8d extracts the image in the closed area A1 by comparing and determining the average color of each image block B in the closed area A1 of the subject existing image P2 and the color of the background image for extraction. It is determined whether or not there is a same color area A2 made up of pixels having substantially the same color as the color of the background image for use.
If it is determined that the same color area A2 exists in the closed area A1 (step S74; YES), the display control unit 9 closes the closed area A1 of the subject existing image P2 displayed on the display screen of the display unit 10. By changing the color of the same color area A2 to another color and displaying it, the fact that the same color area A2 exists is notified (step S75; see FIG. 5B), and the generation of the extraction background image is performed. Failure occurs (step S76).
Thus, the extraction background generation process is terminated.

また、ステップS73にて、被写体存在画像P2内に閉領域A1が存しないと判定された場合(ステップS73;NO)、例えば、背景の色に対して被写体Sが切り抜きに向いていない色の被写体Sであり、異なる色の背景をバックに被写体Sを撮像させる必要があることから、抽出用背景画像の生成が失敗となる(ステップS76)。
また、ステップS71にて、最多同一ブロック数が必要ブロック数以上でないと判定された場合(ステップS71;NO)、例えば、ばらつきのない安定した画像ブロックBがあっても、ほぼ等しい色のブロックが必要ブロック数以上ない場合等には背景が特定できないため、抽出用背景画像の生成が失敗となる(ステップS76)。
また、ステップS69にて、有効ブロックカウンタYBCの値が必要ブロック数以上でないと判定された場合(ステップS69;NO)、ばらつきのない安定した画像ブロックBがないために背景が特定できないことから、抽出用背景画像の生成が失敗となる(ステップS76)。
If it is determined in step S73 that the closed region A1 does not exist in the subject presence image P2 (step S73; NO), for example, a subject whose color is not suitable for clipping with respect to the background color. S, and it is necessary to image the subject S against a background of a different color, so that the generation of the extraction background image fails (step S76).
If it is determined in step S71 that the maximum number of identical blocks is not equal to or greater than the required number of blocks (step S71; NO), for example, even if there is a stable image block B with no variation, blocks of substantially the same color are present. When the number of necessary blocks is not exceeded, for example, the background cannot be specified, and therefore generation of the extraction background image fails (step S76).
If it is determined in step S69 that the value of the effective block counter YBC is not equal to or greater than the required number of blocks (step S69; NO), the background cannot be specified because there is no stable image block B without variation. The generation of the background image for extraction fails (step S76).

一方、ステップS74にて、被写体存在画像P2の閉領域A1内に同色領域A2が存しないと判定されると(ステップS74;NO)、抽出用背景画像の生成を成功として(ステップS77)、抽出用背景生成処理を終了する。   On the other hand, if it is determined in step S74 that the same color area A2 does not exist within the closed area A1 of the subject existing image P2 (step S74; NO), the extraction background image is successfully generated (step S77). The background generation process is terminated.

図7に示すように、次に、中央制御部13は、画像処理部8に、抽出用背景画像の生成が成功したか否かを判定させる(ステップS53)。
ここで、抽出用背景生成が成功しなかったと判定されると(ステップS53;NO)、中央制御部13は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体の切り抜きに失敗しました」等)を表示部10の表示画面に表示させて(ステップS54)、被写体切り抜き処理を終了する。
As shown in FIG. 7, next, the central control unit 13 causes the image processing unit 8 to determine whether or not the generation of the extraction background image has succeeded (step S53).
Here, if it is determined that the extraction background generation has not succeeded (step S53; NO), the central control unit 13 determines a predetermined message (for example, “the subject has failed to be clipped”) regarding the cropping failure of the subject S. ”And the like” are displayed on the display screen of the display unit 10 (step S54), and the subject clipping process is terminated.

一方、ステップS53にて、抽出用背景生成が成功したと判定されると(ステップS53;YES)、中央制御部13は、画像処理部8に被写体存在画像P2から被写体Sが含まれる被写体領域を検出する領域検出処理を行わせる(ステップS55)。   On the other hand, if it is determined in step S53 that the extraction background generation has succeeded (step S53; YES), the central control unit 13 causes the image processing unit 8 to select a subject area including the subject S from the subject existing image P2. An area detection process to be detected is performed (step S55).

ここで、領域検出処理について図10を参照して詳細に説明する。
図10は、領域検出処理に係る動作の一例を示すフローチャートである。
図10に示すように、画像処理部8のマスク生成部8lは、抽出用背景画像のYUVデータと被写体存在画像P2のYUVデータとの間で対応する各画素の相違度Dを下記式(2)に従って算出して相違度マップを生成する(ステップS81)。

Figure 2011191860
Here, the region detection processing will be described in detail with reference to FIG.
FIG. 10 is a flowchart illustrating an example of an operation related to the area detection process.
As shown in FIG. 10, the mask generation unit 8l of the image processing unit 8 calculates the difference D of each corresponding pixel between the YUV data of the extraction background image and the YUV data of the subject existing image P2 by the following equation (2). ) To generate a dissimilarity map (step S81).
Figure 2011191860

次に、マスク生成部8lは、生成した相違度マップを所定の閾値で二値化してマスク画像データを生成する(ステップS82)。そして、マスク生成部8lは、例えば、背景(二値化;0)の領域が著しく小さいか否か等を判定することで、二値化が成功したか否かを判断する(ステップS83)。
ここで、二値化に成功したと判断されると(ステップS83;YES)、マスク生成部8lは、被写体領域の周辺部の残り過ぎを修正したり細かいノイズを除去するため、マスク画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS84)、収縮分を修正するための膨張処理を行う(ステップS85)。
Next, the mask generation unit 8l binarizes the generated dissimilarity map with a predetermined threshold value to generate mask image data (step S82). Then, the mask generation unit 8l determines whether or not the binarization is successful by determining whether or not the background (binarization; 0) region is extremely small, for example (step S83).
Here, if it is determined that the binarization is successful (step S83; YES), the mask generation unit 8l corrects the remaining part of the periphery of the subject region and removes fine noise, so that the mask image data is removed. After performing a contraction process to remove a pixel set smaller than a predetermined value (step S84), an expansion process for correcting the contraction is performed (step S85).

続けて、被写体Sに背景色と似たような色がある場合、マスク画像の被写体領域内が欠損するため、マスク生成部8lは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS86)。
その後、マスク生成部8lは、マスク画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS87)、領域検出成功とする(ステップS88)。
Subsequently, when the subject S has a color similar to the background color, the subject region of the mask image is lost, and thus the mask generation unit 8l performs a labeling process for assigning the same number to the pixel sets constituting the same connected component. Thus, a hole is filled by replacing an area below a predetermined ratio in the number of constituent pixels of the effective area of the mask image data with the effective area (step S86).
After that, the mask generation unit 8l applies an averaging filter to the mask image data, adds a synthetic gradation to the edge of the subject area (step S87), and sets the area detection as successful (step S88).

一方、ステップS83にて、二値化に成功しなかったと判断されると(ステップS83;NO)、例えば、背景(二値化;0)の領域が著しく小さい場合などには、マスク生成部8lは、二値化に失敗したとみなして領域検出失敗とする(ステップS89)。
これにより、領域検出処理を終了する。
On the other hand, if it is determined in step S83 that the binarization is not successful (step S83; NO), for example, if the background (binarization; 0) region is extremely small, the mask generation unit 8l. Is assumed to have failed in binarization and is determined to be area detection failure (step S89).
Thereby, the region detection process is terminated.

図7に示すように、次に、中央制御部13は、画像処理部8のマスク生成部8lに、被写体領域の検出が成功したか否かを判定させる(ステップS56)。
ここで、被写体領域の検出が成功したと判定されると(ステップS56;YES)、中央制御部13は、画像処理部8の切抜画像生成部8hに、クロマキー技術を利用して、領域検出処理にて生成されたマスク画像を用いて被写体存在画像P2から被写体領域を切り出して、所定の単一色背景画像(図示略)と合成して被写体切り抜き画像(図示略)の画像データを生成させる(ステップS57)。
具体的には、切抜画像生成部8hは、被写体存在画像P2、単一色背景画像及びマスク画像データを読み出して画像メモリ5に展開した後、被写体存在画像P2のうち、マスク画像データの塗りつぶした部分(被写体S以外の部分)で覆われる画素については、単一色背景画像の所定の単一色で塗りつぶす一方で、被写体部分の画素については、何もせずに所定の単一色に対して透過させないようにする。なお、マスク画像の縁部分には、合成階調がつけられているため、切り出された被写体領域と単一色背景画像との境界部分がはっきりしていない自然な感じとなる。
その後、表示制御部9は、切抜画像生成部8hにより生成された被写体切り抜き画像の画像データに基づいて、所定の単一色背景画像に被写体Sが重畳された被写体切り抜き画像を表示部10の表示画面に表示させる。
As shown in FIG. 7, next, the central control unit 13 causes the mask generation unit 8l of the image processing unit 8 to determine whether or not the detection of the subject region has succeeded (step S56).
Here, if it is determined that the detection of the subject area has succeeded (step S56; YES), the central control unit 13 uses the chroma key technique to perform the area detection process in the cut-out image generation unit 8h of the image processing unit 8. A subject region is cut out from the subject presence image P2 using the mask image generated in step S2, and is combined with a predetermined single-color background image (not shown) to generate image data of the subject cut-out image (not shown) (step) S57).
Specifically, the cut-out image generation unit 8h reads the subject existing image P2, the single color background image, and the mask image data, develops them in the image memory 5, and then fills the mask image data in the subject existing image P2. The pixels covered by (the part other than the subject S) are filled with a predetermined single color of the single color background image, while the pixels of the subject part are not transmitted to the predetermined single color without doing anything. To do. Note that since the synthetic gradation is given to the edge portion of the mask image, the boundary portion between the clipped subject area and the single-color background image has a natural feeling.
Thereafter, the display control unit 9 displays a subject cut-out image in which the subject S is superimposed on a predetermined single-color background image based on the image data of the subject cut-out image generated by the cut-out image generation unit 8h. To display.

次に、記録媒体制御部11は、記録媒体11aの所定の記憶領域に、画像処理部8のマスク生成部8lにより生成されたマスク画像データと被写体画像の画像データを対応付けて、当該被写体切り抜き画像の画像データの拡張子を「.jpe」として一ファイルで保存させる(ステップS58)。
これにより、被写体切り抜き処理を終了する。
Next, the recording medium control unit 11 associates the mask image data generated by the mask generation unit 8l of the image processing unit 8 with the image data of the subject image in a predetermined storage area of the recording medium 11a, and cuts out the subject The extension of the image data of the image is saved as one file with “.jpe” (step S58).
Thereby, the subject clipping process is completed.

一方、ステップS56にて、被写体領域の検出が成功しなかったと判定されると(ステップS56;NO)、中央制御部13は、処理をステップS54に移行させて、上記と同様に、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部10の表示画面に表示させて(ステップS54)、被写体切り抜き処理を終了する。   On the other hand, if it is determined in step S56 that the detection of the subject area has not been successful (step S56; NO), the central control unit 13 shifts the processing to step S54, and in the same manner as described above, A predetermined message relating to the clipping failure is displayed on the display screen of the display unit 10 (step S54), and the subject clipping process is terminated.

以上のように、実施形態2の撮像装置200によれば、上記実施形態1に記載の撮像装置100と同様の効果が得られるのは無論のこと、特に、背景内に被写体Sの存する被写体存在画像P2を撮像し、当該被写体存在画像P2における、非平坦度が所定値以下の背景部分とは異なる色の画素で囲繞された閉領域A1の中に、当該背景部分とほぼ等しい色の同色領域A2が存する場合に、当該被写体存在画像P2における閉領域A1内に同色領域A2が存する旨を報知するので、被写体存在画像P2からの被写体領域の切り抜きが失敗する虞のある同色領域A2の部分をユーザに把握させることができる。これにより、ユーザが被写体Sの背景や当該被写体Sや構図などの変更等を行うことで、被写体切り抜き処理にて、撮像された被写体存在画像P2の同色領域A2の色調が背景部分の色調とほぼ等しいために当該同色領域A2を切り抜くことができないといったことがなくなって、被写体存在画像P2からの被写体領域の切り抜きの失敗を適正に防止することができる。この結果、被写体切り抜き処理のために被写体存在画像P2を何度も撮り直さなければならないといったことがなくなる。   As described above, according to the imaging apparatus 200 of the second embodiment, it is needless to say that the same effect as that of the imaging apparatus 100 described in the first embodiment can be obtained, and in particular, the presence of the subject with the subject S in the background. The same-color region of the same color as the background portion in the closed region A1 that is captured by the image P2 and surrounded by pixels of a different color from the background portion whose non-flatness is a predetermined value or less in the subject presence image P2. When A2 exists, the fact that the same color area A2 exists in the closed area A1 in the subject existence image P2 is notified, so that the portion of the same color area A2 where the clipping of the subject area from the subject existence image P2 may fail may be detected. The user can be made aware. Accordingly, when the user changes the background of the subject S, the subject S, the composition, or the like, the color tone of the same color area A2 of the captured subject existing image P2 is almost the same as the color tone of the background portion in the subject clipping process. Since they are equal, the same color area A2 cannot be cut out, and it is possible to appropriately prevent a subject area from being cut out of the subject existing image P2. As a result, the subject existence image P2 must not be taken again and again for the subject clipping process.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1、2にあっては、被写体存在画像P2(ライブビュー表示されている画像も含む)や被写体非存在画像P1の色(例えば、各画像ブロックBの色)に基づいて、閉領域A1や同色領域A2を特定するようにしたが、これらの領域の特定方法は一例であってこれに限られるものではなく、例えば、被写体存在画像P2の被写体画像の輪郭をエッジ検出により検出するようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, based on the color of the subject presence image P2 (including images displayed in live view) and the subject non-existence image P1 (for example, the color of each image block B), Although the closed area A1 and the same color area A2 are specified, the method for specifying these areas is merely an example, and is not limited thereto. For example, the contour of the subject image of the subject existing image P2 is detected by edge detection. You may make it do.

さらに、上記実施形態1、2にあっては、ユーザによる操作入力部12のシャッタボタン12aの一回の撮像指示操作に基づいて撮像記録される被写体存在画像P2の枚数は、一枚であっても良いし、複数枚であっても良い。即ち、被写体存在画像P2を連続して複数枚静止画像として撮像する場合や動画像として撮像する場合には、各被写体存在画像P2毎に被写体Sが存する領域を切り抜いて被写体画像を生成するようにしても良い。   Furthermore, in the first and second embodiments, the number of subject presence images P2 that are imaged and recorded based on one imaging instruction operation of the shutter button 12a of the operation input unit 12 by the user is one. Alternatively, a plurality of sheets may be used. That is, in the case where the subject existence image P2 is continuously captured as a plurality of still images or as a moving image, the subject image is generated by cutting out the area where the subject S exists for each subject presence image P2. May be.

また、上記実施形態1にあっては、アルファマップと被写体画像の画像データとを対応付けて、また、実施形態2にあっては、マスク画像データと被写体画像の画像データとを対応付けてそれぞれ一ファイルで保存させるようにしたが、アルファマップやマスク画像データと被写体存在画像P2の画像データとを対応付けて一ファイルで記録媒体(記録手段)11aに保存させるようにしても良い。この場合、当該ファイルの再生には、被写体存在画像P2を再生させるモードと、再生時にアルファマップやマスク画像データを適用して被写体画像(被写体切り抜き画像)を合成して表示する2モードを用意しておくとよい。   In the first embodiment, the alpha map and the image data of the subject image are associated with each other. In the second embodiment, the mask image data and the image data of the subject image are associated with each other. Although it is stored as one file, the alpha map or mask image data and the image data of the subject existing image P2 may be associated with each other and stored in the recording medium (recording means) 11a as one file. In this case, for reproduction of the file, a mode for reproducing the subject existing image P2 and two modes for combining and displaying the subject image (subject cutout image) by applying an alpha map or mask image data at the time of reproduction are prepared. It is good to keep.

さらに、被写体非存在画像P1から被写体画像を切り抜く方法として上記実施形態1、2に例示したものは一例であって、これらに限られるものではない。例えば、被写体非存在画像P1から被写体画像の切り抜き用に、上記実施形態1にあっては、アルファマップの代わりにマスク画像データを生成して用いても良いし、実施形態2にあっては、マスク画像データの代わりにアルファマップを生成して用いても良い。   Furthermore, the methods exemplified in the first and second embodiments as a method for cutting out the subject image from the subject non-existing image P1 are examples, and the present invention is not limited to these. For example, in the first embodiment, mask image data may be generated and used instead of an alpha map for clipping a subject image from the subject non-existing image P1, and in the second embodiment, An alpha map may be generated and used instead of the mask image data.

また、上記実施形態2にあっては、撮像制御部3に撮像停止部3aを具備するようにしたが、撮像停止部3aを具備するか否かは適宜任意に変更することができる。   In the second embodiment, the imaging control unit 3 includes the imaging stop unit 3a. However, whether or not the imaging stop unit 3a is provided can be arbitrarily changed as appropriate.

また、上記実施形態2にあっては、撮像された被写体存在画像P2について、閉領域A1と同色領域A2が存するか否かを判定するようにしたが、被写体存在画像P2の撮像前に、順次撮像されるライブビュー画像で判定するようにしてもよい。つまり、ライブビュー画像に対して最多同一ブロックの平均色を求め、その平均色と異なる色の閉領域A1が存するか否かを判定し、閉領域A1が存する場合は、最多同一ブロックの平均色と略同色の領域である同色領域A2が存するか否かを判定し、同色領域A2が存する場合は、その旨を報知するようにしてもよい。   In the second embodiment, it is determined whether or not the closed area A1 and the same color area A2 exist for the captured subject existing image P2. However, before the subject existing image P2 is captured, the sequential determination is performed. You may make it determine with the live view image imaged. That is, the average color of the most identical block is obtained for the live view image, and it is determined whether or not there is a closed region A1 having a color different from the average color. If the closed region A1 exists, the average color of the most identical block is determined. It may be determined whether or not the same color area A2 that is an area of substantially the same color exists, and if the same color area A2 exists, the fact may be notified.

さらに、撮像装置100、200の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。   Furthermore, the configurations of the imaging apparatuses 100 and 200 are merely examples as illustrated in the above-described embodiment, and are not limited thereto.

加えて、上記実施形態1、2にあっては、取得手段、非平坦度判定手段、第1領域判定手段、第2領域判定手段、報知手段としての機能を、画像処理部8の画像取得部8a、非平坦度判定部8j、画像領域判定部8d、表示制御部9が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、撮像装置100のプログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、撮像制御処理ルーチン、領域判定処理ルーチン、報知制御処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部13のCPUを、画像メモリ5に記憶されている背景画像を取得する取得手段として機能させるようにしても良い。また、撮像制御処理ルーチンにより中央制御部13のCPUを、背景内に被写体が存する被写体存在画像を撮像させる撮像制御手段として機能させるようにしても良い。また、領域判定処理ルーチンにより中央制御部13のCPUを、撮像手段により撮像された画像に、取得手段によって取得された背景画像とは異なる色の画素でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段、及び第1領域の中に、当該背景画像とほぼ等しい色の第2領域が存するか否かを判定する第2領域判定手段として機能させるようにしても良い。また、報知制御処理ルーチンにより中央制御部13のCPUを、第2領域判定手段によって第2領域が存すると判定された場合に、当該第2領域が存する旨を報知手段から報知させる報知制御手段として機能させるようにしても良い。
また、撮像装置200のプログラムを記憶するプログラムメモリ(図示略)に、撮像制御処理ルーチン、非平坦度判定処理ルーチン、領域判定処理ルーチン、報知制御処理ルーチンを含むプログラムを記憶しておく。そして、撮像制御処理ルーチンにより中央制御部13のCPUを、背景内に被写体が存する被写体存在画像を撮像させる撮像制御手段として機能させるようにしても良い。また、非平坦度判定処理ルーチンにより中央制御部13のCPUを、撮像手段により撮像された画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段として機能させるようにしても良い。また、領域判定処理ルーチンにより中央制御部13のCPUを、撮像手段により撮像された画像に非平坦度判定手段により非平坦度が所定値以下であると判定された背景部分とは異なる色の画素でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段、及び第1領域の中に、当該背景部分とほぼ等しい色の第2領域が存するか否かを判定する第2領域判定手段として機能させるようにしても良い。また、報知制御処理ルーチンにより中央制御部13のCPUを、第2領域判定手段によって第2領域が存すると判定された場合に、当該第2領域が存する旨を報知手段から報知させる報知制御手段として機能させるようにしても良い。
In addition, in the first and second embodiments, the functions of the acquisition unit, the non-flatness determination unit, the first region determination unit, the second region determination unit, and the notification unit function as the image acquisition unit of the image processing unit 8. 8a, the non-flatness determination unit 8j, the image region determination unit 8d, and the display control unit 9 are driven. However, the present invention is not limited to this, and a predetermined program is executed by the CPU of the central control unit 13. It is good also as a structure implement | achieved by performing etc.
That is, a program memory (not shown) that stores the program of the imaging apparatus 100 stores a program including an acquisition processing routine, an imaging control processing routine, an area determination processing routine, and a notification control processing routine. Then, the CPU of the central control unit 13 may function as an acquisition unit that acquires a background image stored in the image memory 5 by an acquisition process routine. Further, the CPU of the central control unit 13 may function as an imaging control unit that captures a subject existing image in which a subject exists in the background by an imaging control processing routine. In addition, the CPU of the central control unit 13 determines whether or not the image captured by the image capturing unit includes a first region that is substantially surrounded by pixels of a color different from the background image acquired by the acquiring unit. The first area determination means for determining whether or not and the second area determination means for determining whether or not the second area having a color substantially equal to the background image exists in the first area may be used. . Further, when the notification control processing routine determines that the CPU of the central control unit 13 has the second area by the second area determination means, the notification control means notifies the fact that the second area exists from the notification means. You may make it function.
Further, a program memory (not shown) that stores the program of the imaging apparatus 200 stores programs including an imaging control processing routine, a non-flatness determination processing routine, an area determination processing routine, and a notification control processing routine. Then, the CPU of the central control unit 13 may function as an imaging control unit that captures a subject existing image in which a subject is present in the background by an imaging control processing routine. Further, the CPU of the central control unit 13 functions as a non-flatness determination unit that determines whether or not the non-flatness of the background portion of the image captured by the imaging unit is equal to or less than a predetermined value by the non-flatness determination processing routine. You may make it let it. In addition, the CPU of the central control unit 13 causes the image of the image captured by the imaging unit to be different from the background portion in which the non-flatness is determined to be less than or equal to the predetermined value by the non-flatness determination unit. First region determining means for determining whether or not there is a first region substantially surrounded by the first region, and a first region for determining whether or not a second region having a color substantially equal to the background portion exists in the first region. You may make it function as a 2 area | region determination means. Further, when the notification control processing routine determines that the CPU of the central control unit 13 has the second area by the second area determination means, the notification control means notifies the fact that the second area exists from the notification means. You may make it function.

同様に、画像生成手段についても、中央制御部13のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the image generation means may be realized by a predetermined program or the like being executed by the CPU of the central control unit 13.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8a 画像取得部
8d 画像領域判定部
8h 切抜画像生成部
8j 非平坦度判定部
9 表示制御部
10 表示部
13 中央制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Lens part 2 Electronic imaging part 3 Imaging control part 8 Image processing part 8a Image acquisition part 8d Image area determination part 8h Cutout image generation part 8j Non-flatness determination part 9 Display control part 10 Display part 13 Central control part

Claims (12)

背景画像を取得する取得手段と、
背景内に被写体が存する被写体存在画像を撮像する撮像手段と、
前記被写体存在画像に、前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段と、
この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景画像と略同色の第2領域が存するか否かを判定する第2領域判定手段と、
この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知手段と、
を備えたことを特徴とする撮像装置。
Acquisition means for acquiring a background image;
Imaging means for imaging a subject existing image in which a subject is present in the background;
First area determination means for determining whether or not the subject existing image includes a first area substantially surrounded by an area of a color different from the color of the background image;
When it is determined by the first area determination means that the first area exists, it is determined whether or not a second area having substantially the same color as the background image exists in the first area in the subject existing image. Second area determination means for performing,
A notification means for notifying that the second area exists when the second area determination means determines that the second area exists;
An imaging apparatus comprising:
前記第1領域は、前記背景用画像とは異なる色の画素で囲繞された閉領域であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first area is a closed area surrounded by pixels of a different color from the background image. 前記撮像手段により撮像される被写体存在画像の背景は、前記背景画像の対応する領域と略同一であることを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein a background of the subject existing image captured by the imaging unit is substantially the same as a corresponding region of the background image. 背景内に被写体が存する被写体存在画像を撮像する撮像手段と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段と、
この非平坦度判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体存在画像に前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段と、
この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景部分の色と略同色の第2領域が存するか否かを判定する第2領域判定手段と、
この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject existing image in which a subject is present in the background;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
If the non-flatness determination means determines that the non-flatness is less than or equal to a predetermined value, does the subject existing image have a first area substantially surrounded by an area of a color different from the color of the background image? First area determination means for determining whether or not,
If the first region determining means determines that the first region exists, whether or not a second region having substantially the same color as the background portion color exists in the first region in the subject existing image. Second region determining means for determining
A notification means for notifying that the second area exists when the second area determination means determines that the second area exists;
An imaging apparatus comprising:
前記第1領域は、前記背景部分とは異なる色の画素で囲繞された閉領域であることを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the first area is a closed area surrounded by pixels having a different color from the background portion. 前記被写体存在画像は、前記撮像手段によって順次撮像されて表示手段に表示されることを特徴とする請求項1〜5の何れか一項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject presence image is sequentially captured by the imaging unit and displayed on a display unit. 前記報知手段は、前記表示手段に表示されている被写体存在画像における前記第2領域を識別可能な表示形態で表示させることを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the notification unit displays the second region in the subject existing image displayed on the display unit in a display form that can be identified. 前記被写体存在画像から被写体が存する領域を切り抜いて被写体画像を生成する画像生成手段を更に備えることを特徴とする請求項1〜7の何れか一項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an image generation unit configured to generate a subject image by cutting out a region where the subject exists from the subject existing image. 背景内に被写体が存する被写体存在画像を撮像する撮像手段を備える撮像装置を用いた撮像処理方法であって、
背景画像を取得する取得処理と、
取得した被写体存在画像に、前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定処理と、
この第1領域判定処理によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景画像と略同色の第2領域が存するか否かを判定する第2領域判定処理と、
この第2領域判定処理によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知処理と、
を含むことを特徴とする撮像処理方法。
An imaging processing method using an imaging device including an imaging means for imaging a subject existing image in which a subject is present in a background,
An acquisition process to acquire a background image;
A first region determination process for determining whether or not the acquired subject presence image includes a first region substantially surrounded by a region of a color different from the color of the background image;
When it is determined by the first area determination processing that the first area exists, it is determined whether or not a second area having substantially the same color as the background image exists in the first area in the subject existing image. A second area determination process to perform,
A notification process for notifying that the second area exists when it is determined that the second area exists by the second area determination process;
An imaging processing method comprising:
背景内に被写体が存する被写体存在画像を撮像する撮像手段を備える撮像装置を用いた撮像処理方法であって、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定処理と、
この非平坦度判定処理により非平坦度が所定値以下であると判定された場合に、前記被写体存在画像に前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定処理と、
この第1領域判定処理によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景部分の色と略同色の第2領域が存するか否かを判定する第2領域判定処理と、
この第2領域判定処理によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知する報知処理と、
を含むことを特徴とする撮像処理方法。
An imaging processing method using an imaging device including an imaging means for imaging a subject existing image in which a subject is present in a background,
Non-flatness determination processing for determining whether or not the non-flatness of the background portion of the subject existing image is a predetermined value or less;
If it is determined by this non-flatness determination processing that the non-flatness is less than or equal to a predetermined value, does the subject-existing image have a first area that is substantially surrounded by an area of a color different from the color of the background image? A first area determination process for determining whether or not;
If it is determined by the first region determination processing that the first region exists, whether or not a second region having substantially the same color as the color of the background portion exists in the first region in the subject existing image. A second region determination process for determining
A notification process for notifying that the second area exists when it is determined that the second area exists by the second area determination process;
An imaging processing method comprising:
撮像装置のコンピュータを、
背景画像を取得する取得手段、
背景内に被写体が存する被写体存在画像を撮像させる撮像制御手段、
前記被写体存在画像に、前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段、
この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景画像と略同色の第2領域が存するか否かを判定する第2領域判定手段、
この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知させる報知制御手段、
として機能させることを特徴とするプログラム。
The computer of the imaging device,
Acquisition means for acquiring a background image;
Imaging control means for imaging a subject existing image in which a subject is present in the background;
First area determining means for determining whether or not the subject existing image includes a first area substantially surrounded by an area of a color different from the color of the background image;
When it is determined by the first area determination means that the first area exists, it is determined whether or not a second area having substantially the same color as the background image exists in the first area in the subject existing image. Second area determination means for
Notification control means for notifying that the second area exists when the second area determination means determines that the second area exists;
A program characterized by functioning as
撮像装置のコンピュータを、
背景内に被写体が存する被写体存在画像を撮像させる撮像制御手段、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段、
この非平坦度判定手段により非平坦度が所定値以下であると判定された場合に、前記被写体存在画像に前記背景画像の色とは異なる色の領域でほぼ囲まれた第1領域が存するか否かを判定する第1領域判定手段、
この第1領域判定手段によって前記第1領域が存すると判定された場合に、前記被写体存在画像における前記第1領域の中に、前記背景部分の色と略同色の第2領域が存するか否かを判定する第2領域判定手段、
この第2領域判定手段によって前記第2領域が存すると判定された場合に、当該第2領域が存する旨を報知させる報知制御手段、
として機能させることを特徴とするプログラム。
The computer of the imaging device,
Imaging control means for imaging a subject existing image in which a subject is present in the background;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
If the non-flatness determination means determines that the non-flatness is less than or equal to a predetermined value, does the subject existing image have a first area substantially surrounded by an area of a color different from the color of the background image? First area determination means for determining whether or not,
If the first region determining means determines that the first region exists, whether or not a second region having substantially the same color as the background portion color exists in the first region in the subject existing image. Second region determining means for determining
Notification control means for notifying that the second area exists when the second area determination means determines that the second area exists;
A program characterized by functioning as
JP2010055605A 2010-03-12 2010-03-12 Imaging apparatus, image processing apparatus, and program Active JP5504990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010055605A JP5504990B2 (en) 2010-03-12 2010-03-12 Imaging apparatus, image processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010055605A JP5504990B2 (en) 2010-03-12 2010-03-12 Imaging apparatus, image processing apparatus, and program

Publications (3)

Publication Number Publication Date
JP2011191860A true JP2011191860A (en) 2011-09-29
JP2011191860A5 JP2011191860A5 (en) 2013-04-25
JP5504990B2 JP5504990B2 (en) 2014-05-28

Family

ID=44796736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010055605A Active JP5504990B2 (en) 2010-03-12 2010-03-12 Imaging apparatus, image processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP5504990B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014209327A (en) * 2013-03-27 2014-11-06 パナソニック株式会社 Image processing apparatus, image processing method, and image processing program
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
JP2016031599A (en) * 2014-07-28 2016-03-07 東芝テック株式会社 Information processor and program
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
CN111770717A (en) * 2018-02-20 2020-10-13 富士胶片株式会社 Endoscope system
WO2021071118A1 (en) * 2019-10-10 2021-04-15 주식회사 신세계아이앤씨 Foreground separation apparatus and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63178677A (en) * 1987-01-19 1988-07-22 Nippon Telegr & Teleph Corp <Ntt> Object image extracting device
JP2000030037A (en) * 1998-07-10 2000-01-28 Casio Comput Co Ltd Photographing device
JP2000069498A (en) * 1998-08-22 2000-03-03 Daisei Denki Kk Chroma key system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63178677A (en) * 1987-01-19 1988-07-22 Nippon Telegr & Teleph Corp <Ntt> Object image extracting device
JP2000030037A (en) * 1998-07-10 2000-01-28 Casio Comput Co Ltd Photographing device
JP2000069498A (en) * 1998-08-22 2000-03-03 Daisei Denki Kk Chroma key system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNB199700112001; 遠藤 悦郎: Adobe Photoshop AtoZ 初版第一刷, 19930215, P.60-67, 株式会社 ビー・エヌ・エヌ *
JPN6013058906; 遠藤 悦郎: Adobe Photoshop AtoZ 初版第一刷, 19930215, P.60-67, 株式会社 ビー・エヌ・エヌ *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014209327A (en) * 2013-03-27 2014-11-06 パナソニック株式会社 Image processing apparatus, image processing method, and image processing program
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
JP2016031599A (en) * 2014-07-28 2016-03-07 東芝テック株式会社 Information processor and program
CN111770717A (en) * 2018-02-20 2020-10-13 富士胶片株式会社 Endoscope system
CN111770717B (en) * 2018-02-20 2023-11-07 富士胶片株式会社 endoscope system
WO2021071118A1 (en) * 2019-10-10 2021-04-15 주식회사 신세계아이앤씨 Foreground separation apparatus and method
KR20210042563A (en) * 2019-10-10 2021-04-20 주식회사 신세계아이앤씨 Apparatus and method for separating foreground from background
KR102398874B1 (en) * 2019-10-10 2022-05-16 주식회사 신세계아이앤씨 Apparatus and method for separating foreground from background

Also Published As

Publication number Publication date
JP5504990B2 (en) 2014-05-28

Similar Documents

Publication Publication Date Title
JP5413002B2 (en) Imaging apparatus and method, and program
JP4218712B2 (en) Face detection device, imaging device, and face detection method
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP4947136B2 (en) Image processing apparatus, image processing method, and program
US8472747B2 (en) Image composition device, image composition method, and storage medium storing program
US20100238325A1 (en) Image processor and recording medium
JP2011010275A (en) Image reproducing apparatus and imaging apparatus
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP4868046B2 (en) Image processing apparatus, image processing method, and program
US8649561B2 (en) Subject designating device and subject tracking apparatus
JP5733588B2 (en) Image processing apparatus and method, and program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP5131399B2 (en) Image processing apparatus, image processing method, and program
JP2011182014A (en) Image pickup device, image processing method and program
JP5423296B2 (en) Image processing apparatus, image processing method, and program
JP2011041041A (en) Imaging apparatus, imaging method and program
JP2011003057A (en) Image composition device, image specifying method, image composition method, and program
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP5332668B2 (en) Imaging apparatus and subject detection program
JP6762779B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP2010278701A (en) Image combining device, and image combining method and program
JP5310361B2 (en) Imaging apparatus, image processing method, and program
JP5565227B2 (en) Image processing apparatus, image processing method, and program
JP2014022826A (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130311

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140303

R150 Certificate of patent or registration of utility model

Ref document number: 5504990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150