JP5786544B2 - Image processing apparatus, imaging apparatus, and program - Google Patents

Image processing apparatus, imaging apparatus, and program Download PDF

Info

Publication number
JP5786544B2
JP5786544B2 JP2011175876A JP2011175876A JP5786544B2 JP 5786544 B2 JP5786544 B2 JP 5786544B2 JP 2011175876 A JP2011175876 A JP 2011175876A JP 2011175876 A JP2011175876 A JP 2011175876A JP 5786544 B2 JP5786544 B2 JP 5786544B2
Authority
JP
Japan
Prior art keywords
image
subject
unit
region
image area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011175876A
Other languages
Japanese (ja)
Other versions
JP2013042201A (en
Inventor
鉾井 逸人
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011175876A priority Critical patent/JP5786544B2/en
Publication of JP2013042201A publication Critical patent/JP2013042201A/en
Application granted granted Critical
Publication of JP5786544B2 publication Critical patent/JP5786544B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、撮像装置、及びプログラムに関する。   The present invention relates to an image processing device, an imaging device, and a program.

画像の特徴量のヒストグラムに基づいて、撮像された画像から画像領域を抽出する技術が知られている(例えば、特許文献1参照)。   A technique for extracting an image area from a captured image based on a histogram of image feature amounts is known (see, for example, Patent Document 1).

特開平4−10079号公報Japanese Patent Laid-Open No. 4-10079

しかしながら、特許文献1に記載されている技術では、撮像された画像から人が注目する画像領域を抽出すること、すなわち、被写体の画像領域を抽出することができなかった。   However, with the technique described in Patent Document 1, it has been impossible to extract an image region that is noticed by a person from a captured image, that is, an image region of a subject.

本発明は、上記問題を解決すべくなされたもので、その目的は、撮像された画像から被写体の画像領域を抽出することができる画像処理装置、撮像装置、及びプログラムを提供することにある。   The present invention has been made to solve the above problems, and an object of the present invention is to provide an image processing apparatus, an imaging apparatus, and a program that can extract an image area of a subject from a captured image.

上記問題を解決するために、本発明の一実施形態は、画像から複数の被写体領域を検出する検出部と、前記検出部で検出された複数の前記被写体領域のうち、前記画像の第1領域を形成する、対向した2つの辺に接している被写体領域を抽出する抽出部と、を備える画像処理装置である。  In order to solve the above problem, an embodiment of the present invention includes a detection unit that detects a plurality of subject regions from an image, and a first region of the image among the plurality of subject regions detected by the detection unit. And an extraction unit that extracts a subject area in contact with two opposing sides.

また、本発明の一実施形態は、画像から複数の被写体領域を検出する検出部と、前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、を備え、前記抽出部は、前記画像の第1領域を形成する1つの辺に接している面積が第1閾値以上である被写体領域を抽出しない画像処理装置である。  Further, an embodiment of the present invention includes: a detection unit that detects a plurality of subject areas from an image; and an extraction unit that extracts a specific subject area among the plurality of subject areas detected by the detection unit. And the extraction unit is an image processing apparatus that does not extract a subject region whose area in contact with one side forming the first region of the image is equal to or greater than a first threshold.

また、本発明の一実施形態は、画像から複数の被写体領域を検出する検出部と、前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、を備え、前記抽出部は、前記画像の第1領域を形成する1つの辺の長さと、前記辺において被写体領域が接している部分の長さと、の割合が第2閾値以上である被写体領域を抽出しない画像処理装置である。  Further, an embodiment of the present invention includes: a detection unit that detects a plurality of subject areas from an image; and an extraction unit that extracts a specific subject area among the plurality of subject areas detected by the detection unit. And the extraction unit extracts a subject region in which a ratio of a length of one side forming the first region of the image and a length of a portion of the side that is in contact with the subject region is equal to or greater than a second threshold value. It is an image processing device that does not.

また、本発明の一実施形態は、画像から複数の被写体領域を検出する検出部と、前記検出部で検出された複数の前記被写体領域のうち、前記画像内に定められた第1範囲を形成する、対向した2つの辺に接している被写体領域を抽出する抽出部と、を備える画像処理装置である。  In one embodiment of the present invention, a detection unit that detects a plurality of subject areas from an image, and a first range defined in the image among the plurality of subject areas detected by the detection unit is formed. And an extraction unit that extracts a subject area that is in contact with two opposing sides.
また、本発明の一実施形態は、画像から複数の被写体領域を検出する検出部と、前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、を備え、前記抽出部は、前記画像内に定められた第1範囲を形成する1つの辺に接している面積が第1閾値以上である被写体領域を抽出しない画像処理装置である。  Further, an embodiment of the present invention includes: a detection unit that detects a plurality of subject areas from an image; and an extraction unit that extracts a specific subject area among the plurality of subject areas detected by the detection unit. And the extraction unit is an image processing apparatus that does not extract a subject area whose area in contact with one side forming a first range defined in the image is equal to or greater than a first threshold.
また、本発明の一実施形態は、画像から複数の被写体領域を検出する検出部と、前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、を備え、前記抽出部は、前記検出部で検出された複数の前記被写体領域のうち、前記画像内に定められた第1範囲を形成する1つの辺の長さと、前記辺において被写体領域が接している部分の長さと、の割合が第2閾値以上である被写体領域を抽出しない画像処理装置である。  Further, an embodiment of the present invention includes: a detection unit that detects a plurality of subject areas from an image; and an extraction unit that extracts a specific subject area among the plurality of subject areas detected by the detection unit. The extraction unit includes a length of one side forming a first range defined in the image, and the subject region is in contact with the side of the plurality of subject regions detected by the detection unit. This is an image processing apparatus that does not extract a subject area whose ratio to the length of the existing part is equal to or greater than the second threshold.
また、本発明の一実施形態は、上述の画像処理装置と、前記画像処理装置の前記抽出部で抽出された被写体領域により光学像を撮像素子に導くレンズを制御する制御部と、を備えるレンズ制御装置である。  In addition, an embodiment of the present invention includes a lens including the above-described image processing device, and a control unit that controls a lens that guides an optical image to an imaging device using a subject area extracted by the extraction unit of the image processing device. It is a control device.
また、本発明の一実施形態は、レンズから射出された光学像を撮像する撮像素子と、上述の画像処理装置と、前記画像処理装置の前記抽出部で抽出された被写体領域により前記レンズを制御する制御部と、を備える撮像装置である。  In one embodiment of the present invention, the lens is controlled by an imaging device that captures an optical image emitted from the lens, the image processing device described above, and a subject area extracted by the extraction unit of the image processing device. And a control unit.
また、本発明の一実施形態は、コンピュータに、画像から複数の被写体領域を検出する検出ステップと、前記検出ステップで検出された複数の前記被写体領域のうち、前記画像の第1領域を形成する、対向した2つの辺に接している被写体領域を抽出する抽出ステップと、を実行させるためのプログラムである。  In one embodiment of the present invention, a detection step of detecting a plurality of subject regions from an image and a first region of the image among the plurality of subject regions detected in the detection step are formed in a computer. , An extraction step for extracting a subject area that is in contact with two opposite sides.
また、本発明の一実施形態は、コンピュータに、画像から複数の被写体領域を検出する検出ステップと、前記検出ステップで検出された複数の前記被写体領域のうち、前記画像内に定められた第1範囲を形成する、対向した2つの辺に接している被写体領域を抽出する抽出ステップと、を実行させるためのプログラムである。  According to one embodiment of the present invention, a detection step of detecting a plurality of subject areas from an image on a computer, and a first step defined in the image among the plurality of subject areas detected in the detection step. And an extraction step for extracting a subject area that is in contact with two opposite sides that form a range.

本発明によれば、撮像された画像から被写体の画像領域を抽出することができる。   According to the present invention, an image area of a subject can be extracted from a captured image.

本実施形態による画像処理装置と撮像装置との構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus and imaging device by this embodiment. 本実施形態における画像処理装置における画像処理を示すフローチャートである。It is a flowchart which shows the image processing in the image processing apparatus in this embodiment. 本実施形態における背景除外部の処理の一例を示す第1のイメージ図である。It is a 1st image figure which shows an example of the process of the background exclusion part in this embodiment. 本実施形態における背景除外部の処理の一例を示す第2のイメージ図である。It is a 2nd image figure which shows an example of the process of the background exclusion part in this embodiment. 本実施形態における枠縁除外部の処理を示すフローチャートである。It is a flowchart which shows the process of the frame edge exclusion part in this embodiment. 本実施形態における枠縁除外部の処理の一例を示す第1のイメージ図である。It is a 1st image figure which shows an example of a process of the frame edge exclusion part in this embodiment. 本実施形態における枠縁除外部の処理の一例を示す第2のイメージ図である。It is a 2nd image figure which shows an example of the process of the frame edge exclusion part in this embodiment. 本実施形態における枠縁除外部の処理の一例を示す第3のイメージ図である。It is a 3rd image figure which shows an example of the process of the frame edge exclusion part in this embodiment. 本実施形態における枠縁除外部の処理の一例を示す第4のイメージ図である。It is a 4th image figure which shows an example of a process of the frame edge exclusion part in this embodiment. 本実施形態における被写体抽出結果の一例を示すイメージ図である。It is an image figure which shows an example of the to-be-photographed object extraction result in this embodiment.

以下、本発明の一実施形態による画像処理装置及び撮像装置について、図面を参照して説明する。
図1は、本実施形態による画像処理装置1と撮像装置100との構成を示すブロック図である。
撮像装置100は、レンズ鏡筒111から入射される光学像を撮像し、得られた画像を静止画又は動画の画像として、記憶媒体200に記憶させる。また、撮像装置100は、画像処理装置1(画像処理部140)を備えている。
Hereinafter, an image processing apparatus and an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus 1 and the imaging apparatus 100 according to the present embodiment.
The imaging device 100 captures an optical image incident from the lens barrel 111 and stores the obtained image in the storage medium 200 as a still image or a moving image. In addition, the imaging apparatus 100 includes the image processing apparatus 1 (image processing unit 140).

まず、レンズ鏡筒111の構成を説明する。
レンズ鏡筒111は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」という)112、レンズ駆動部116、AFエンコーダ117、及び鏡筒制御部118を備える。なお、レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
First, the configuration of the lens barrel 111 will be described.
The lens barrel 111 includes a focus adjustment lens (hereinafter referred to as “AF (Auto Focus) lens”) 112, a lens driving unit 116, an AF encoder 117, and a barrel control unit 118. The lens barrel 111 may be detachably connected to the imaging device 100 or may be integrated with the imaging device 100.

AFレンズ112は、レンズ駆動部116により駆動され、後述する撮像部110の撮像素子119の受光面(光電変換面)に、光学像を導く。   The AF lens 112 is driven by a lens driving unit 116 and guides an optical image to a light receiving surface (photoelectric conversion surface) of an image sensor 119 of the image capturing unit 110 described later.

AFエンコーダ117は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部118に出力する。ここで、AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。   The AF encoder 117 detects the movement of the AF lens 112 and outputs a signal corresponding to the movement amount of the AF lens 112 to the lens barrel control unit 118. Here, the signal corresponding to the movement amount of the AF lens 112 may be a sine wave signal whose phase changes according to the movement amount of the AF lens 112, for example.

鏡筒制御部118は、撮像装置100のCPU190から入力される駆動制御信号に応じて、レンズ駆動部116を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部118は、駆動制御信号に応じて、例えば、レンズ駆動部116に出力するパルス電圧のステップ数を変更する。   The lens barrel control unit 118 controls the lens driving unit 116 in accordance with a drive control signal input from the CPU 190 of the imaging apparatus 100. Here, the drive control signal is a control signal for driving the AF lens 112 in the optical axis direction. The lens barrel control unit 118 changes the number of steps of the pulse voltage output to the lens driving unit 116, for example, according to the drive control signal.

また、鏡筒制御部118は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、CPU190に出力する。ここで、鏡筒制御部118は、例えば、AFレンズ112の移動量に応じた信号を、AFレンズ112の移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出してもよい。   Further, the lens barrel control unit 118 outputs the position (focus position) of the AF lens 112 in the lens barrel 111 to the CPU 190 based on a signal corresponding to the movement amount of the AF lens 112. Here, the lens barrel control unit 118 integrates, for example, signals according to the movement amount of the AF lens 112 according to the movement direction of the AF lens 112, thereby moving the AF lens 112 in the lens barrel 111 (the movement amount ( Position) may be calculated.

レンズ駆動部116は、鏡筒制御部118の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。   The lens driving unit 116 drives the AF lens 112 in accordance with the control of the lens barrel control unit 118 and moves the AF lens 112 in the optical axis direction within the lens barrel 111.

次に、撮像装置100の構成を説明する。
撮像装置100は、撮像部110、画像処理部140、表示部150、バッファメモリ部130、操作部180、記憶部160、CPU190、通信部170及びバス300を備えている。
Next, the configuration of the imaging device 100 will be described.
The imaging apparatus 100 includes an imaging unit 110, an image processing unit 140, a display unit 150, a buffer memory unit 130, an operation unit 180, a storage unit 160, a CPU 190, a communication unit 170, and a bus 300.

撮像部110は、撮像素子119と、A/D(Analog/Digital)変換部120とを備える。撮像部110は、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU190により制御される。   The imaging unit 110 includes an imaging element 119 and an A / D (Analog / Digital) conversion unit 120. The imaging unit 110 is controlled by the CPU 190 in accordance with the set imaging conditions (for example, aperture value, exposure value, etc.).

撮像素子119は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部120に出力する。撮像素子119は、例えば、CMOS(Complementary Metal Oxide Semiconductor)で構成されていてもよい。また、撮像素子119は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(画像切り出し)。   The image sensor 119 includes a photoelectric conversion surface, converts an optical image formed on the photoelectric conversion surface by the lens barrel 111 (optical system) into an electric signal, and outputs the electric signal to the A / D conversion unit 120. The image sensor 119 may be configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor). Further, the image sensor 119 may convert an optical image into an electrical signal for a partial region of the photoelectric conversion surface (image clipping).

また、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けた際に得られる画像を、A/D変換部120を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介してユーザからの撮影指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、バッファメモリ部130及び表示部150に、A/D変換部120を介して出力する。   Further, the image sensor 119 stores an image obtained when a shooting instruction from the user is received via the operation unit 180 in the storage medium 200 via the A / D conversion unit 120. On the other hand, the imaging device 119 performs A / D conversion on the buffer memory unit 130 and the display unit 150 as images that are continuously obtained in a state where a shooting instruction from the user is not received via the operation unit 180. Output via the unit 120.

A/D変換部120は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部130に出力する。   The A / D converter 120 digitizes the electrical signal converted by the image sensor 119 and outputs an image that is a digital signal to the buffer memory unit 130.

操作部180は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、操作入力に応じた信号をCPU190に出力する。   The operation unit 180 includes, for example, a power switch, a shutter button, a multi-selector (cross key), or other operation keys. The operation unit 180 receives a user operation input when operated by the user, and outputs a signal corresponding to the operation input to the CPU 190. Output to.

画像処理部140(画像処理装置1)は、記憶部160に記憶されている画像処理条件に基づいて、バッファメモリ部130に一時的に記憶されている画像を画像処理する。そして、画像処理された画像は、通信部170を介して記憶媒体200に記憶される。
なお、画像処理部140は、画像処理装置1に対応する。
The image processing unit 140 (image processing apparatus 1) performs image processing on the image temporarily stored in the buffer memory unit 130 based on the image processing conditions stored in the storage unit 160. Then, the image-processed image is stored in the storage medium 200 via the communication unit 170.
Note that the image processing unit 140 corresponds to the image processing apparatus 1.

画像処理部140(画像処理装置1)は、バッファメモリ部130に一時的に記憶されている画像から、画像の特徴の特徴量毎に定まる画像領域(マスク)と、後述する「画像領域の情報(ラベル属性)」とを検出する。そして、画像処理部140は、画像の特徴の特徴量毎に定まる画像領域と、領域の情報とを対応付けて、記憶部160及び記憶媒体200に記憶させる。   The image processing unit 140 (the image processing apparatus 1) includes an image region (mask) determined for each feature amount of the image feature from the image temporarily stored in the buffer memory unit 130, and “image region information” described later. (Label attribute) "is detected. Then, the image processing unit 140 associates the image region determined for each feature amount of the image feature with the region information and causes the storage unit 160 and the storage medium 200 to store the image region.

ここで、画像領域の情報(ラベル属性)とは、例えば、画像における領域の分布(位置、形状(慣性モーメント))、面積、数、被写体距離(デフォーカス量)、動きベクトル(差分データ)、色相、彩度、明度、テクスチャ(模様)、輝度(Y)、色差(Cb、Cr)、エッジ、AFコントラスト評価値、設定したフラグ、設定したラベル(識別子)、算出した評点、又は設定した優先度などである。画像領域の情報には、これらを組み合わせて使用してもよいし、単独で使用してもよい。また、評点とは、ラベリングした画像領域同士を比較するための点数(評価点)である。   Here, the information (label attribute) of the image area includes, for example, the distribution (position, shape (moment of inertia)), area, number, subject distance (defocus amount), motion vector (difference data) in the image, Hue, saturation, brightness, texture (pattern), brightness (Y), color difference (Cb, Cr), edge, AF contrast evaluation value, set flag, set label (identifier), calculated score, or set priority Degree. These may be used in combination for the image area information, or may be used alone. The score is a score (evaluation score) for comparing the labeled image areas.

また、画像処理部140は、画像領域(マスク)を被写体候補の画像領域として、被写体候補の画像領域のうちから、被写体の画像領域を抽出する。
ここで、被写体の画像領域とは、撮像された画像から人が注目する画像領域のことである。画像処理部140の詳細な構成は、後述する。
また、画像処理部140は、例えば、抽出した被写体の画像領域に基づいて、AF用の矩形領域を生成する。
Further, the image processing unit 140 extracts the image area of the subject from the image areas of the subject candidates using the image area (mask) as the image area of the subject candidates.
Here, the image area of the subject is an image area that a person pays attention to from the captured image. The detailed configuration of the image processing unit 140 will be described later.
Further, the image processing unit 140 generates, for example, a rectangular area for AF based on the extracted image area of the subject.

表示部150は、例えば液晶ディスプレイであって、撮像部110によって得られた画像、及び操作画面等を表示する。
バッファメモリ部130は、撮像部110によって撮像された画像を、一時的に記憶する。
The display unit 150 is, for example, a liquid crystal display, and displays an image obtained by the imaging unit 110, an operation screen, and the like.
The buffer memory unit 130 temporarily stores the image captured by the imaging unit 110.

記憶部160は、撮像の際にCPU190によって参照される各種判定条件や、設定された各種撮像条件、画像領域の情報などを記憶する。   The storage unit 160 stores various determination conditions referred to by the CPU 190 at the time of imaging, various set imaging conditions, image area information, and the like.

CPU190は、設定された撮像条件(例えば絞り値、露出値等)に従って撮像部110を制御する。また、CPU190は、画像領域の情報を、記憶部160又は記憶媒体200から取得する。   The CPU 190 controls the imaging unit 110 according to the set imaging conditions (for example, aperture value, exposure value, etc.). In addition, the CPU 190 acquires image area information from the storage unit 160 or the storage medium 200.

そして、CPU190は、画像領域の情報に基づいて、プレ処理又はポスト処理として、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像(オブジェクト)の追尾の設定、夜景か否かの判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。   Then, based on the image area information, the CPU 190 performs focus adjustment (AF) setting, exposure adjustment (AE) setting, white balance adjustment (AWB) setting, subject image (object) as pre-processing or post-processing. Control settings such as tracking, night scene determination settings, color correction processing settings, enlarged subject image display settings, panning display settings, brightness optimization settings linked to zoom magnification, etc. .

また、CPU190は、操作部180から入力された「操作入力に応じた信号」に基づいて、静止画又は動画として、画像処理部140に画像を画像処理させる。   Further, the CPU 190 causes the image processing unit 140 to perform image processing as a still image or a moving image based on the “signal according to the operation input” input from the operation unit 180.

通信部170は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への情報(画像データ、領域の情報など)の書込み、読み出し、あるいは消去を行う。   The communication unit 170 is connected to a removable storage medium 200 such as a card memory, and writes, reads, or erases information (image data, area information, etc.) to the storage medium 200.

記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データ、領域の情報など)を記憶する。なお、記憶媒体200は、撮像装置100と一体であってもよい。
バス300は、撮像部110と、レンズ鏡筒111の鏡筒制御部118と、画像処理部140と、表示部150と、バッファメモリ部130と、操作部180と、記憶部160と、CPU190と、通信部170とに接続され、各部から出力されたデータ等を転送する。
The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 100 and stores information (image data, area information, and the like). Note that the storage medium 200 may be integrated with the imaging device 100.
The bus 300 includes an imaging unit 110, a lens barrel control unit 118 of the lens barrel 111, an image processing unit 140, a display unit 150, a buffer memory unit 130, an operation unit 180, a storage unit 160, and a CPU 190. Are connected to the communication unit 170 and transfer data output from each unit.

次に、画像処理部140の詳細について説明する。
画像処理部140は、特徴量算出部10と、領域検出部15と、被写体判定部20とを備えている。
Next, details of the image processing unit 140 will be described.
The image processing unit 140 includes a feature amount calculation unit 10, a region detection unit 15, and a subject determination unit 20.

特徴量算出部10は、撮像された画像の特徴を算出する。すなわち、特徴量算出部10は、入力された画像の特徴毎に、特徴の特徴量を算出する。具体的に、特徴量算出部10は、撮像部110が撮像した画像を、バッファメモリ部130から取得する。特徴量算出部10は、バッファメモリ部130から取得した画像における複数の特徴(例えば、輝度(Y)、色差(Cb、Cr)等)毎に、その特徴量を算出する。   The feature amount calculation unit 10 calculates the feature of the captured image. That is, the feature amount calculation unit 10 calculates a feature amount for each feature of the input image. Specifically, the feature amount calculation unit 10 acquires an image captured by the imaging unit 110 from the buffer memory unit 130. The feature amount calculation unit 10 calculates the feature amount for each of a plurality of features (for example, luminance (Y), color difference (Cb, Cr), etc.) in the image acquired from the buffer memory unit 130.

領域検出部15(抽出部)は、撮像された画像の特徴に基づいて、画像に含まれる画像領域を被写体候補の画像領域(第1画像領域)として検出(抽出)する。すなわち、領域検出部15は、取得した画像に含まれる領域であって特徴量毎に定まる画像領域を、被写体候補の画像領域として画像から検出する。つまり、領域検出部15は、特徴量算出部10により算出された特徴量毎に定まる被写体候補の画像領域を抽出する。ここで、領域検出部15が検出する領域は、例えば、撮像部110が撮像した画像に含まれる被写体候補の画像領域である。   The area detection unit 15 (extraction unit) detects (extracts) an image area included in the image as an image area (first image area) of a subject candidate based on the characteristics of the captured image. That is, the area detection unit 15 detects an area included in the acquired image and determined for each feature amount from the image as an image area of a subject candidate. That is, the region detection unit 15 extracts the image region of the subject candidate determined for each feature amount calculated by the feature amount calculation unit 10. Here, the area detected by the area detection unit 15 is, for example, an image area of a subject candidate included in the image captured by the imaging unit 110.

領域検出部15は、特徴量毎に検出した被写体候補の画像領域を識別するラベル(識別子)を設定する(ラベリング処理)。ここで、ラベルとは、特徴量が互いに近い画素により構成された画像領域であって、グループ化された画像領域(集合)である。また、ラベリングとは、特徴量が互いに近い(例えば、彩度h=0〜20度に該当する)画素に隣接する画像領域を、順次検出してグループ化することである。
領域検出部15は、画像領域を識別するラベルを、画像領域の情報として、画像領域毎に記憶部160及び記憶媒体200に記憶させる。
The area detection unit 15 sets a label (identifier) that identifies the image area of the subject candidate detected for each feature amount (labeling process). Here, the label is an image area composed of pixels whose feature amounts are close to each other, and is a grouped image area (set). Labeling is to sequentially detect and group image regions adjacent to pixels having feature quantities close to each other (for example, corresponding to saturation h = 0 to 20 degrees).
The area detection unit 15 stores a label for identifying an image area in the storage unit 160 and the storage medium 200 for each image area as image area information.

被写体判定部20(判定部)は、領域検出部15によって検出された被写体候補の画像領域のうちから、被写体の画像領域(第2画像領域)を抽出(判定)する。すなわち、被写体判定部20は、後述する背景画像領域の除外処理及び枠縁画像領域の除外処理などによって、被写体候補の画像領域のうちから被写体の可能性が低い画像領域を除外し、被写体候補の画像領域を数個(例えば、5個以下)に絞り込む。   The subject determination unit 20 (determination unit) extracts (determines) the subject image region (second image region) from the subject candidate image regions detected by the region detection unit 15. In other words, the subject determination unit 20 excludes an image region that is unlikely to be a subject from the subject candidate image regions by performing a background image region exclusion process and a frame border image region exclusion process, which will be described later. The image area is narrowed down to several (for example, five or less).

被写体判定部20は、異なる特徴(例えば、輝度(Y)と色差(Cb、Cr))の特徴量毎に基づいてラベリングした画像領域同士を比較するための評点を、画像領域毎(ラベル毎)に算出する。そして、被写体判定部20は、算出した評点に基づいて、画像における「画像領域の優先度」を設定する。この「画像領域の優先度」とは、人がより注目しているであろう画像領域を示す被写体の画像領域の優先度である。すなわち、被写体判定部20は、設定した「画像領域の優先度」に基づいて、被写体の画像領域を抽出(判定)する。なお、被写体判定部20は、設定した「画像領域の優先度」を、画像領域の情報として、画像領域毎に記憶部160及び記憶媒体200に記憶させる。   The subject determination unit 20 uses a score for comparing image regions labeled based on feature amounts of different features (for example, luminance (Y) and color difference (Cb, Cr)) for each image region (for each label). To calculate. Then, the subject determination unit 20 sets “image area priority” in the image based on the calculated score. This “priority of the image area” is the priority of the image area of the subject indicating the image area that the person will be more interested in. In other words, the subject determination unit 20 extracts (determines) an image region of the subject based on the set “image region priority”. The subject determination unit 20 stores the set “image area priority” in the storage unit 160 and the storage medium 200 for each image area as image area information.

また、被写体判定部20は、背景除外部21と、枠縁除外部22とを備えている。
背景除外部21は、被写体候補の画像領域うちの画像領域それぞれと、画像の撮像範囲内の予め定められた抽出範囲を示す抽出枠(抽出領域)との位置関係に応じて、画像領域それぞれが背景の画像領域を示す背景画像領域であるか否かを判定する。すなわち、被写体判定部20は、領域検出部15により抽出された被写体候補の画像領域と、入力された画像内の予め定められた抽出範囲を示す抽出枠との位置関係に応じて、被写体候補の画像領域から抽出される被写体の画像領域を抽出するか否かを判定する。背景除外部21は、画像領域が背景画像領域であると判定した場合に、判定した背景画像領域を、被写体候補の画像領域のうちから除外する(背景画像領域の除外処理)。すなわち、背景画像領域は、被写体の画像領域になる可能性が低いため、被写体判定部20は、判定した背景画像領域を被写体候補の画像領域のうちから除外する。
なお、抽出枠は、例えば、撮像範囲(画角)を示す枠である。この抽出枠は、撮像範囲(画角)の内側に任意の大きさで設定してもよい。また、本実施形態において、抽出枠の形状は四角形である一例について説明するが、抽出枠の形状は、多角形であってもよい。
The subject determination unit 20 includes a background exclusion unit 21 and a frame edge exclusion unit 22.
The background exclusion unit 21 determines whether each of the image areas corresponds to the positional relationship between each of the image areas of the subject candidate image areas and an extraction frame (extraction area) indicating a predetermined extraction range within the imaging range of the image. It is determined whether or not the background image area indicates the background image area. That is, the subject determination unit 20 determines the subject candidate according to the positional relationship between the subject candidate image region extracted by the region detection unit 15 and the extraction frame indicating a predetermined extraction range in the input image. It is determined whether or not to extract the image area of the subject extracted from the image area. When determining that the image area is the background image area, the background exclusion unit 21 excludes the determined background image area from the subject candidate image areas (background image area exclusion processing). That is, since the background image region is unlikely to be the subject image region, the subject determination unit 20 excludes the determined background image region from the subject candidate image regions.
The extraction frame is, for example, a frame that indicates an imaging range (view angle). This extraction frame may be set to an arbitrary size inside the imaging range (view angle). In the present embodiment, an example in which the shape of the extraction frame is a quadrangle will be described, but the shape of the extraction frame may be a polygon.

背景除外部21は、例えば、以下の3つの条件によって、画像領域が背景画像領域であるか否か(被写体候補の画像領域から抽出される被写体の画像領域を抽出するか否かを)を判定する。
[第1の条件]
背景除外部21は、画像領域が抽出枠の2辺以上に接する場合に、当該画像領域を背景画像領域であると判定する。この場合、背景除外部21は、背景画像領域であると判定した画像領域を、被写体候補の画像領域のうちから除外する。すなわち、背景除外部21は、被写体候補の画像領域が抽出枠(抽出領域)を形成する隣接した2辺(又は2辺以上)に接する場合、当該被写体候補の画像領域を被写体の画像領域として抽出しないと判定する。
For example, the background excluding unit 21 determines whether or not the image area is the background image area (whether or not to extract the subject image area extracted from the subject candidate image area) under the following three conditions: To do.
[First condition]
When the image area touches two or more sides of the extraction frame, the background exclusion unit 21 determines that the image area is a background image area. In this case, the background excluding unit 21 excludes the image area determined to be the background image area from the image areas of the subject candidates. That is, when the subject candidate image area touches two adjacent sides (or two or more sides) forming the extraction frame (extraction area), the background exclusion unit 21 extracts the subject candidate image area as the subject image area. Judge that not.

[第2の条件]
背景除外部21は、画像領域が抽出枠の1辺に接する線幅(又は画像領域の面積)が予め定められた第1閾値以上である場合に、当該画像領域を背景画像領域であると判定する。この場合、背景除外部21は、背景画像領域であると判定した画像領域を、被写体候補の画像領域のうちから除外する。すなわち、背景除外部21は、抽出枠を形成する1辺に接する被写体候補の画像領域の面積(又は線幅)が予め定められた第1閾値以上である場合、当該被写体候補の画像領域を被写体の画像領域として抽出しないと判定する。なお、この場合、画像領域が抽出枠の1辺に接する割合(例えば、面積の割合、線幅の割合など)が予め定められた第1閾値以上である形態でもよい。
[Second condition]
The background excluding unit 21 determines that the image area is a background image area when the line width (or the area of the image area) in contact with one side of the extraction frame is equal to or greater than a predetermined first threshold. To do. In this case, the background excluding unit 21 excludes the image area determined to be the background image area from the image areas of the subject candidates. That is, when the area (or line width) of the subject candidate image area in contact with one side forming the extraction frame is equal to or larger than the predetermined first threshold value, the background exclusion unit 21 determines that the subject candidate image area is the subject. It is determined that the image area is not extracted. In this case, a form in which the ratio of the image region contacting one side of the extraction frame (for example, the ratio of the area, the ratio of the line width, or the like) may be a predetermined first threshold value or more.

[第3の条件]
背景除外部21は、画像領域が抽出枠の2辺に接し、且つ、画像領域が抽出枠の対向する2辺に接する場合に、当該画像領域を背景画像領域でないと判定する。この場合、背景除外部21は、当該画像領域を被写体候補の画像領域のうちに残し、被写体候補の画像領域のうちから除外しない。すなわち、背景除外部21は、被写体候補の画像領域が抽出枠を形成する対向した2辺に接する場合、当該被写体候補の画像領域を被写体の画像領域として抽出すると判定する。
[Third condition]
The background excluding unit 21 determines that the image area is not a background image area when the image area is in contact with two sides of the extraction frame and the image area is in contact with two opposite sides of the extraction frame. In this case, the background exclusion unit 21 leaves the image area in the subject candidate image area and does not exclude it from the subject candidate image area. That is, when the subject candidate image area touches two opposite sides forming the extraction frame, the background exclusion unit 21 determines to extract the subject candidate image area as the subject image area.

なお、本実施形態では、画像処理装置1は、背景除外部21による処理を実行した後に、枠縁除外部22による処理を実行する一例について説明する。そのため、背景除外部21によって抽出された被写体の画像領域(第2画像領域)は、枠縁除外部22における処理において、被写体候補の画像領域として説明する。さらに、本実施形態では、枠縁除外部22が被写体候補の画像領域(第2画像領域)から被写体の画像領域(第3画像領域又は第4画像領域)を抽出する一例について説明する。   In the present embodiment, an example in which the image processing apparatus 1 executes processing by the frame edge exclusion unit 22 after performing processing by the background exclusion unit 21 will be described. For this reason, the image area (second image area) of the subject extracted by the background excluding unit 21 will be described as the image region of the subject candidate in the processing in the frame edge excluding unit 22. Furthermore, in the present embodiment, an example will be described in which the frame edge exclusion unit 22 extracts a subject image region (third image region or fourth image region) from a subject candidate image region (second image region).

枠縁除外部22は、被写体候補の画像領域(第2画像領域)うちの画像領域それぞれと、抽出枠(抽出領域)の内側の範囲であって、撮像範囲における中心部分の範囲を示す予め定められた中央枠(中央領域)との位置関係に応じて、画像領域それぞれを枠縁画像領域であるか否かを判定する。すなわち、枠縁除外部22は、被写体候補の画像領域と、抽出枠の内側の範囲であって、入力された画像の中央部分の範囲を示す中央枠との位置関係に応じて、被写体候補の画像領域から抽出される被写体の画像領域(第3画像領域)を抽出するか否かを判定する。   The frame edge excluding unit 22 is a predetermined range that indicates each of the image regions of the subject candidate image region (second image region) and the range inside the extraction frame (extraction region) and the center portion of the imaging range. Whether each image area is a frame edge image area is determined according to the positional relationship with the center frame (center area). That is, the frame edge excluding unit 22 determines the subject candidate according to the positional relationship between the image area of the subject candidate and the central frame indicating the range of the central portion of the input image that is inside the extraction frame. It is determined whether or not to extract the image area (third image area) of the subject extracted from the image area.

枠縁除外部22は、画像領域を枠縁画像領域であると判定した場合、判定した枠縁画像領域を、被写体候補の画像領域のうちから除外する(枠縁画像領域の除外処理)。ここで、枠縁画像領域とは、撮像された画像における枠形状の画像領域を示し、例えば、窓枠や窓桟等、それに類する枠的な物体による画像領域である。すなわち、枠縁画像領域は、被写体の画像領域になる可能性が低いため、枠縁除外部22は、判定した枠縁画像領域を被写体候補の画像領域のうちから除外する。   When it is determined that the image area is a frame edge image area, the frame edge exclusion unit 22 excludes the determined frame edge image area from the image areas of the subject candidates (frame edge image area exclusion processing). Here, the frame edge image area refers to an image area having a frame shape in a captured image, and is an image area formed by a frame-like object such as a window frame or a window frame, for example. That is, since the frame edge image area is unlikely to be the image area of the subject, the frame edge exclusion unit 22 excludes the determined frame edge image area from the image areas of the subject candidates.

枠縁除外部22は、例えば、以下の4つの条件によって、画像領域が枠縁画像領域であるか否かを判定する。
[条件A]
枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、画像領域が中央枠外にある場合に、当該画像領域を枠縁画像領域であると判定する。この場合、枠縁除外部22は、枠縁画像領域であると判定した画像領域を、被写体候補の画像領域のうちから除外する。すなわち、枠縁除外部22は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、被写体候補の画像領域が中央枠の範囲外にある場合、当該被写体候補の画像領域を被写体の画像領域(第3画像領域)として抽出しないと判定する。
なお、画像領域のアスペクト比とは、画像領域の長辺長と短辺長との比であり、(長辺長/短辺長)に対応する。
For example, the frame edge exclusion unit 22 determines whether the image area is a frame edge image area under the following four conditions.
[Condition A]
The frame edge exclusion unit 22 determines that the image area is a frame edge image area when the aspect ratio of the image area is equal to or larger than a predetermined second threshold and the image area is outside the central frame. In this case, the frame edge exclusion unit 22 excludes the image area determined to be the frame edge image area from the image areas of the subject candidates. That is, when the aspect ratio of the subject candidate image area is equal to or larger than the predetermined second threshold and the subject candidate image area is outside the range of the center frame, the frame edge exclusion unit 22 It is determined that the image area is not extracted as the image area (third image area) of the subject.
The aspect ratio of the image area is the ratio of the long side length to the short side length of the image area and corresponds to (long side length / short side length).

次の[条件B]から[条件D]において、中央枠には、第1の中央枠(図7の中央枠B参照)と、第1の中央枠より内側の範囲を示す第2の中央枠(図7の中央枠A参照)とが含まれる。枠縁除外部22は、被写体候補の画像領域と、第1の中央枠(第1中央領域)と、第2の中央枠(第2中央領域)との位置関係に応じて、被写体候補の画像領域から抽出される被写体の画像領域(第4画像領域)を抽出するか否かを判定する。ここで、第1の中央枠(中央枠B)は、抽出枠の内側の範囲であって、入力された画像の中央部分の範囲を示す。また、第2の中央枠(中央枠A)は、第1の中央枠の内側の範囲であって、第1の中央枠の中央部分の範囲を示す。   In the following [Condition B] to [Condition D], the central frame includes a first central frame (see the central frame B in FIG. 7) and a second central frame indicating a range inside the first central frame. (Refer to the center frame A in FIG. 7). The frame edge exclusion unit 22 selects the subject candidate image according to the positional relationship among the subject candidate image region, the first center frame (first center region), and the second center frame (second center region). It is determined whether or not to extract the image area (fourth image area) of the subject extracted from the area. Here, the first center frame (center frame B) is a range inside the extraction frame and indicates the range of the central portion of the input image. The second central frame (central frame A) is a range inside the first central frame and indicates a range of the central portion of the first central frame.

[条件B]
枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、画像領域が第1の中央枠内及び第2の中央枠内にある場合に、当該画像領域を枠縁画像領域でないと判定する。この場合、枠縁除外部22は、当該画像領域を被写体候補の画像領域のうちに残し、被写体候補の画像領域のうちから除外しない。すなわち、枠縁除外部22は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、被写体候補の画像領域が第1の中央枠(中央枠B)の内側の範囲及び第2の中央枠(中央枠A)の内側の範囲にある場合、当該被写体候補の画像領域を被写体の画像領域(第4画像領域)として抽出すると判定する。
[Condition B]
The frame edge excluding unit 22 determines that the image area when the aspect ratio of the image area is equal to or greater than a predetermined second threshold and the image area is in the first central frame and the second central frame. Is not a frame border image region. In this case, the frame edge exclusion unit 22 leaves the image area in the subject candidate image area and does not exclude it from the subject candidate image area. That is, the frame edge excluding unit 22 has an aspect ratio of the subject candidate image area equal to or greater than a predetermined second threshold, and the subject candidate image area is located inside the first center frame (center frame B). If it is within the range and the range inside the second center frame (center frame A), it is determined that the subject candidate image area is extracted as the subject image area (fourth image area).

[条件C]
枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、画像領域が第1の中央枠内であり、且つ、画像領域が第2の中央枠内にない場合であって、さらに、第2の中央枠内に他の画像領域がある場合に、当該画像領域を枠縁画像領域であると判定する。この場合、枠縁除外部22は、枠縁画像領域であると判定した画像領域を、被写体候補の画像領域のうちから除外する。すなわち、枠縁除外部22は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、被写体候補の画像領域が第1の中央枠(中央枠B)の内側の範囲及び第2の中央枠(中央枠A)の外側の範囲にある場合であって、さらに、第2の中央枠(中央枠A)に他の被写体候補の画像領域がある場合、当該被写体候補の画像領域を被写体の画像領域(第4画像領域)として抽出しないと判定する。
[Condition C]
The frame edge exclusion unit 22 has an aspect ratio of the image area equal to or greater than a predetermined second threshold, the image area is in the first center frame, and the image area is in the second center frame. If there is no other image region in the second center frame, it is determined that the image region is a frame edge image region. In this case, the frame edge exclusion unit 22 excludes the image area determined to be the frame edge image area from the image areas of the subject candidates. That is, the frame edge excluding unit 22 has an aspect ratio of the subject candidate image area equal to or greater than a predetermined second threshold, and the subject candidate image area is located inside the first center frame (center frame B). If the area is outside the range and the second center frame (center frame A) and there is an image area of another subject candidate in the second center frame (center frame A), the subject candidate Is determined not to be extracted as the subject image region (fourth image region).

[条件D]
枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、画像領域が第1の中央枠内であり、且つ、画像領域が第2の中央枠内にない場合であって、さらに、第2の中央枠内に他の画像領域がない場合に、当該画像領域を枠縁画像領域でないと判定する。この場合、枠縁除外部22は、当該画像領域を被写体候補の画像領域のうちに残し、被写体候補の画像領域のうちから除外しない。すなわち、枠縁除外部22は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値以上であり、且つ、被写体候補の画像領域が第1の中央枠(中央枠B)の内側の範囲及び第2の中央枠(中央枠A)の外側の範囲にある場合であって、さらに、被写体候補の画像領域に他の被写体候補の画像領域がない場合、当該被写体候補の画像領域を被写体の画像領域(第4画像領域)として抽出すると判定する。
[Condition D]
The frame edge exclusion unit 22 has an aspect ratio of the image area equal to or greater than a predetermined second threshold, the image area is in the first center frame, and the image area is in the second center frame. If there is no other image area in the second center frame, it is determined that the image area is not a frame edge image area. In this case, the frame edge exclusion unit 22 leaves the image area in the subject candidate image area and does not exclude it from the subject candidate image area. That is, the frame edge excluding unit 22 has an aspect ratio of the subject candidate image area equal to or greater than a predetermined second threshold, and the subject candidate image area is located inside the first center frame (center frame B). If the area is outside the range and the second center frame (center frame A) and there is no image area of another subject candidate in the subject candidate image area, the subject candidate image area is defined as the subject. It is determined that it is extracted as an image area (fourth image area).

次に、画像処理部140(画像処理装置1)における画像処理を説明する。
図2は、本実施形態における画像処理部140(画像処理装置1)における画像処理の一例を示すフローチャートである。
なお、本実施形態では、輝度(Y)、色差(Cb、Cr)を特徴量として、画像領域を検出する例について説明する。
Next, image processing in the image processing unit 140 (image processing apparatus 1) will be described.
FIG. 2 is a flowchart illustrating an example of image processing in the image processing unit 140 (image processing apparatus 1) according to the present embodiment.
In the present embodiment, an example in which an image region is detected using luminance (Y) and color differences (Cb, Cr) as feature amounts will be described.

まず、画像処理部140は、スルー画像を取得する(ステップS101)。すなわち、CPU190は、撮像部110を介して撮像した画像をスルー画像として、バッファメモリ部130に記憶させる。画像処理部140は、このバッファメモリ部130に記憶されているスルー画像を取得する。ここで、画像処理部140は、時間的に連続するスルー画像(スルー画列)を取得してもよい。   First, the image processing unit 140 acquires a through image (step S101). That is, the CPU 190 stores the image captured via the imaging unit 110 in the buffer memory unit 130 as a through image. The image processing unit 140 acquires a through image stored in the buffer memory unit 130. Here, the image processing unit 140 may acquire through images (through image sequences) that are continuous in time.

次に、画像処理部140は、基本的な画像処理をスルー画像に実行する(ステップS102)。ここで、基本的な画像処理とは、例えば、簡易的な露出調整(簡易AE)、ホワイトバランス調整(AWB)、ノイズリダクション(NR)である。   Next, the image processing unit 140 performs basic image processing on the through image (step S102). Here, basic image processing includes, for example, simple exposure adjustment (simple AE), white balance adjustment (AWB), and noise reduction (NR).

次に、画像処理部140は、リサイズYUV(ワイユーブイ)処理を実行する(ステップS103)。すなわち、画像処理部140は、基本的な画像処理を実行した画像を、被写体の画像領域を抽出するのに適した画像サイズ及びYUV形式の画像に変換する。   Next, the image processing unit 140 executes a resizing YUV (wire buoy) process (step S103). That is, the image processing unit 140 converts the image on which the basic image processing has been performed into an image having an image size and YUV format suitable for extracting the image area of the subject.

次に、画像処理部140は、9個のYUV空間で2値画像を生成する(ステップS104)。すなわち、画像処理部140の領域検出部15は、Y画像(輝度画像)を階調方向に3分割し、2値画像を生成する。なお、3分割とは、例えば、(M−σ)未満の範囲、(M−σ)から(M+σ)までの範囲、及び(M+σ)から(M+1.6σ)までの範囲である。ここで、Mは輝度分布の平均値に対応し、σは標準偏差に対応する。画像処理部140は、Y画像(輝度画像)と同様に、Cr画像(色差画像)、及びCb画像(色差画像)を階調方向に3分割し、2値画像を生成する。これにより、9個のYUV空間で2値画像が生成される。   Next, the image processing unit 140 generates a binary image in nine YUV spaces (step S104). That is, the area detection unit 15 of the image processing unit 140 divides the Y image (luminance image) into three in the gradation direction, and generates a binary image. The three divisions are, for example, a range less than (M−σ), a range from (M−σ) to (M + σ), and a range from (M + σ) to (M + 1.6σ). Here, M corresponds to the average value of the luminance distribution, and σ corresponds to the standard deviation. Similar to the Y image (luminance image), the image processing unit 140 divides the Cr image (color difference image) and the Cb image (color difference image) into three in the gradation direction, and generates a binary image. As a result, binary images are generated in nine YUV spaces.

次に、画像処理部140は、ラベリングして画像領域を作成する(ステップS105)。すなわち、特徴量算出部10は、2値画像における特徴(例えば、輝度(Y)、色差(Cb、Cr)等)毎に、その特徴量を算出する。領域検出部15は、特徴量毎に検出した被写体候補の画像領域を識別するラベル(識別子)を設定するラベリング処理を実行し、画像領域を被写体候補の画像領域として検出する。   Next, the image processing unit 140 creates an image region by labeling (step S105). That is, the feature amount calculation unit 10 calculates a feature amount for each feature (for example, luminance (Y), color difference (Cb, Cr), etc.) in the binary image. The area detection unit 15 executes a labeling process for setting a label (identifier) for identifying the image area of the subject candidate detected for each feature amount, and detects the image area as the image area of the subject candidate.

次に、画像処理部140は、ノイズ画像領域を被写体候補の画像領域のうちから除外する(ステップS106)。すなわち、画像処理部140の被写体判定部20は、被写体候補の画像領域のうちで、孤立した画像領域(ノイズ)を被写体候補の画像領域のうちから除外する。   Next, the image processing unit 140 excludes the noise image region from the subject candidate image regions (step S106). That is, the subject determination unit 20 of the image processing unit 140 excludes an isolated image region (noise) from the subject candidate image regions from the subject candidate image regions.

次に、画像処理部140は、背景画像領域の除外処理を実行する(ステップS107)。すなわち、被写体判定部20の背景除外部21は、被写体候補の画像領域うちの画像領域それぞれと、画像の撮像範囲内の予め定められた抽出範囲を示す抽出枠との位置関係に応じて、画像領域が背景画像領域であるか否かを判定する。具体的には、背景除外部21は、上述した第1の条件から第3の条件に基づいて、画像領域が背景画像領域であるか否かを判定する。すなわち、背景除外部21は、上述した第1の条件から第3の条件に基づいて、被写体候補の画像領域から抽出される被写体の画像領域を抽出するか否かを判定する。背景除外部21は、画像領域が背景画像領域であると判定した場合に、判定した背景画像領域を、被写体候補の画像領域のうちから除外する。   Next, the image processing unit 140 executes background image region exclusion processing (step S107). In other words, the background excluding unit 21 of the subject determining unit 20 determines the image according to the positional relationship between each of the image regions of the subject candidate image regions and an extraction frame indicating a predetermined extraction range within the imaging range of the image. It is determined whether or not the area is a background image area. Specifically, the background exclusion unit 21 determines whether the image area is a background image area based on the first condition to the third condition described above. That is, the background excluding unit 21 determines whether or not to extract the subject image region extracted from the subject candidate image region based on the first to third conditions described above. When determining that the image area is the background image area, the background excluding unit 21 excludes the determined background image area from the subject candidate image areas.

ここで、背景除外部21が上述した第1の条件から第3の条件による画像領域が背景画像領域であるか否かを判定する具体例について説明する。
図3は、第1の条件及び第2の条件による背景除外部21の処理の一例を示すイメージ図である。
この図において、画像は、横辺幅a×縦辺幅bの範囲を抽出枠G1とする画像である。図3(a)に示すように、抽出枠G1には、領域検出部15によって、画像領域M1からM5の5つの画像領域(被写体候補の画像領域)が検出されている。
Here, a specific example in which the background excluding unit 21 determines whether or not the image area based on the first condition to the third condition described above is a background image area will be described.
FIG. 3 is an image diagram showing an example of processing of the background removal unit 21 according to the first condition and the second condition.
In this figure, the image is an image having an extraction frame G1 in a range of horizontal side width a × vertical side width b. As shown in FIG. 3A, in the extraction frame G1, the area detection unit 15 detects five image areas M1 to M5 (image areas of subject candidates).

例えば、画像領域M4が抽出枠G1の2辺に接しているため、背景除外部21は、上述した第1の条件に基づいて、画像領域M4を背景画像領域であると判定する。この場合、背景除外部21は、背景画像領域であると判定した画像領域を、被写体候補の画像領域のうちから除外する。   For example, since the image region M4 is in contact with the two sides of the extraction frame G1, the background exclusion unit 21 determines that the image region M4 is a background image region based on the first condition described above. In this case, the background excluding unit 21 excludes the image area determined to be the background image area from the image areas of the subject candidates.

また、例えば、画像領域M5が抽出枠G1の1辺に接する線幅dが1辺に対して一定の割合以上(例えば、(線幅d/縦辺幅b)が予め定めた閾値K以上)であるため、上述した第2の条件に基づいて、背景除外部21は、当該画像領域を背景画像領域であると判定する。すなわち、背景除外部21は、像領域M5が抽出枠G1の1辺に接する線幅dが予め定められた第1閾値K1(閾値K×縦線幅b)以上である場合に、背景除外部21は、当該画像領域を背景画像領域であると判定する。この場合、背景除外部21は、背景画像領域であると判定した画像領域を、被写体候補の画像領域のうちから除外する。   Further, for example, the line width d in which the image region M5 is in contact with one side of the extraction frame G1 is a certain ratio or more with respect to one side (for example, (line width d / vertical side width b) is equal to or greater than a predetermined threshold K). Therefore, based on the second condition described above, the background excluding unit 21 determines that the image area is a background image area. That is, the background exclusion unit 21 determines that the background exclusion unit 21 has a line width d in which the image region M5 is in contact with one side of the extraction frame G1 is equal to or greater than a predetermined first threshold K1 (threshold K × vertical line width b). 21 determines that the image area is a background image area. In this case, the background excluding unit 21 excludes the image area determined to be the background image area from the image areas of the subject candidates.

これにより、背景画像領域(M4、M5)が被写体候補の画像領域から除外され、図3(b)に示すように、画像領域(M1、M2、M3)が、背景除外部21によって、被写体候補の画像領域として残される。   As a result, the background image areas (M4, M5) are excluded from the subject candidate image areas, and as shown in FIG. 3B, the image areas (M1, M2, M3) are subject candidates by the background exclusion unit 21. Is left as an image area.

また、図4は、第3の条件による背景除外部21の処理の一例を示すイメージ図である。
例えば、図4(a)に示される画像領域M6は、抽出枠G1の対向する2辺(左右の縦辺)に接する。そのため、背景除外部21は、上述した第3の条件に基づいて、画像領域M6を背景画像領域でないと判定する。この場合、背景除外部21は、画像領域M6を被写体候補の画像領域のうちに残し、被写体候補の画像領域のうちから除外しない。
FIG. 4 is an image diagram showing an example of processing of the background removal unit 21 under the third condition.
For example, the image region M6 shown in FIG. 4A is in contact with two opposite sides (left and right vertical sides) of the extraction frame G1. Therefore, the background exclusion unit 21 determines that the image area M6 is not a background image area based on the third condition described above. In this case, the background excluding unit 21 leaves the image region M6 in the subject candidate image region and does not exclude it from the subject candidate image region.

また、例えば、図4(b)に示される画像領域M7は、抽出枠G1の対向する2辺(上下の横辺)に接する。そのため、背景除外部21は、上述した第3の条件に基づいて、画像領域M7を背景画像領域でないと判定する。この場合、背景除外部21は、画像領域M7を被写体候補の画像領域のうちに残し、被写体候補の画像領域のうちから除外しない。
このように、ステップS107において、背景除外部21は、背景画像領域(例えば、画像領域(M4、M5))の除外処理を実行する。
For example, the image region M7 shown in FIG. 4B is in contact with two opposing sides (upper and lower horizontal sides) of the extraction frame G1. Therefore, the background exclusion unit 21 determines that the image area M7 is not a background image area based on the third condition described above. In this case, the background exclusion unit 21 leaves the image region M7 in the subject candidate image region and does not exclude it from the subject candidate image region.
As described above, in step S107, the background excluding unit 21 executes the excluding process of the background image area (for example, the image area (M4, M5)).

次に、画像処理部140は、枠縁画像領域の除外処理を実行する(ステップS108)。すなわち、被写体判定部20の枠縁除外部22は、被写体候補の画像領域うちの画像領域それぞれと、抽出枠G1の内側の範囲である上述した中央枠との位置関係に応じて、画像領域それぞれを枠縁画像領域であるか否かを判定する。具体的には、枠縁除外部22は、上述した条件Aから条件Dに基づいて、画像領域が枠縁画像領域であるか否かを判定する。すなわち、枠縁除外部22は、上述した条件Aから条件Dに基づいて、被写体候補の画像領域から抽出される被写体の画像領域を抽出するか否かを判定する。枠縁除外部22は、画像領域が枠縁画像領域であると判定した場合に、判定した枠縁画像領域を、被写体候補の画像領域のうちから除外する。
なお、この被写体判定部20の枠縁除外部22による枠縁画像領域の除外処理の詳細については、図5から図9を参照して後述する。
Next, the image processing unit 140 executes a frame border image region exclusion process (step S108). That is, the frame edge exclusion unit 22 of the subject determination unit 20 determines each image region according to the positional relationship between each image region of the subject candidate image regions and the above-described central frame that is the range inside the extraction frame G1. Is determined to be a frame edge image region. Specifically, the frame edge excluding unit 22 determines whether or not the image area is a frame edge image area based on the conditions A to D described above. That is, the frame edge exclusion unit 22 determines whether or not to extract the subject image region extracted from the subject candidate image region based on the above-described conditions A to D. When it is determined that the image area is a frame edge image area, the frame edge exclusion unit 22 excludes the determined frame edge image area from the image areas of the subject candidates.
The details of the frame edge image region exclusion process performed by the frame edge exclusion unit 22 of the subject determination unit 20 will be described later with reference to FIGS.

次に、画像処理部140は、画像領域(被写体候補の画像領域)を優先度付けする(ステップS109)。すなわち、被写体判定部20は、異なる特徴(例えば、輝度(Y)と色差(Cb、Cr))の特徴量毎に基づいてラベリングした画像領域同士を比較するための評点を、画像領域毎(ラベル毎)に算出する。そして、被写体判定部20は、算出した評点に基づいて、画像における「画像領域の優先度」を設定し、「画像領域の優先度」に基づいて、優先度の高い画像領域を被写体の画像領域として抽出する。   Next, the image processing unit 140 prioritizes image areas (image areas of subject candidates) (step S109). That is, the subject determination unit 20 gives a score for comparing image regions labeled based on feature amounts of different features (for example, luminance (Y) and color difference (Cb, Cr)) for each image region (label). Every). Then, the subject determination unit 20 sets “priority of the image area” in the image based on the calculated score, and selects an image area having a high priority based on the “priority of image area” as the image area of the subject. Extract as

次に、画像処理部140は、AF用の矩形領域を生成する(ステップS110)。すなわち、画像処理部140は、被写体判定部20によって、「画像領域の優先度」に基づいて抽出された被写体の画像領域(例えば、5個以下)に対して、AF用矩形領域を生成する。画像処理部140は、例えば、被写体の画像領域に外接する矩形枠として、AF用矩形領域を生成する。   Next, the image processing unit 140 generates a rectangular area for AF (step S110). That is, the image processing unit 140 generates an AF rectangular region for the subject image regions (for example, 5 or less) extracted by the subject determination unit 20 based on the “priority of the image region”. For example, the image processing unit 140 generates the AF rectangular area as a rectangular frame circumscribing the image area of the subject.

次に、CPU190は、生成されたAF用の矩形領域でコントラストスキャンを実行する(ステップS111)。すなわち、CPU190は、コントラストスキャンを実行し、AFコントラスト評価値がピークを示したレンズ位置を、AF用の矩形領域毎に、記憶部160に記憶させる。   Next, the CPU 190 executes a contrast scan on the generated rectangular area for AF (step S111). That is, the CPU 190 executes a contrast scan and causes the storage unit 160 to store the lens position at which the AF contrast evaluation value shows a peak for each rectangular area for AF.

次に、CPU190は、至近優先にてAF制御を実行する(ステップS112)。すなわち、CPU190は、記憶部160に記憶されているAFコントラスト評価値がピークを示したレンズ位置に基づいて、設定されたAF用の矩形領域を、至近優先によって合焦するように、AF制御(焦点調整制御)を実行する。   Next, the CPU 190 executes AF control with close priority (step S112). That is, the CPU 190 performs AF control (focus control) so that the set AF rectangular area is focused with close priority based on the lens position at which the AF contrast evaluation value stored in the storage unit 160 shows a peak. Focus adjustment control).

次に、撮像装置100が撮像する(ステップS113)。すなわち、CPU190は、操作部180を介してユーザからの撮影指示を受け付けた場合、撮像部110に撮像させる。さらに、画像処理部140は、領域の情報に基づいて、後段処理(画像処理)を実行する(ステップS114)。そして、画像処理部140は、領域の情報を、画像(領域)と対応付けて記憶部160及び記憶媒体200に記憶させる(ステップS115)。   Next, the imaging device 100 captures an image (step S113). That is, when the CPU 190 receives a shooting instruction from the user via the operation unit 180, the CPU 190 causes the imaging unit 110 to capture an image. Furthermore, the image processing unit 140 performs subsequent processing (image processing) based on the region information (step S114). Then, the image processing unit 140 stores the region information in the storage unit 160 and the storage medium 200 in association with the image (region) (step S115).

次に、枠縁除外部22による枠縁画像領域の除外処理について説明する。
図5は、本実施形態における枠縁除外部22の処理を示すフローチャートである。
また、図6から図9は、枠縁除外部22が上述した条件Aから条件Dによる画像領域が枠縁画像領域であるか否かを判定する具体例を示すイメージ図である。
なお、図5における図2の枠縁除外部22の処理は、ステップS108における処理に対応する。
Next, the frame edge image region exclusion process by the frame edge exclusion unit 22 will be described.
FIG. 5 is a flowchart showing the processing of the frame edge exclusion unit 22 in the present embodiment.
FIGS. 6 to 9 are image diagrams showing specific examples in which the frame edge excluding unit 22 determines whether or not the image area according to the above conditions A to D is a frame edge image area.
Note that the processing of the frame edge exclusion unit 22 in FIG. 2 in FIG. 5 corresponds to the processing in step S108.

図5において、まず、枠縁除外部22は、画像領域のアスペクト比(長辺長/短辺長)が第2閾値K2以上か否かを判定する(ステップS201)。すなわち、枠縁除外部22は、画像領域のアスペクト比を算出する。例えば、図6に示される画像領域M8では、アスペクト比は、(長辺長W/短辺長h)である。枠縁除外部22は、算出したアスペクト比(長辺長W/短辺長h)が第2閾値K2以上か否かを判定する。枠縁除外部22は、算出したアスペクト比(長辺長W/短辺長h)が第2閾値K2以上である場合に、処理をステップS202に進め、第2閾値K2未満である場合に、処理をステップS205に進める。   In FIG. 5, first, the frame edge excluding unit 22 determines whether or not the aspect ratio (long side length / short side length) of the image region is equal to or greater than the second threshold value K2 (step S201). That is, the frame edge excluding unit 22 calculates the aspect ratio of the image area. For example, in the image region M8 shown in FIG. 6, the aspect ratio is (long side length W / short side length h). The frame edge exclusion unit 22 determines whether the calculated aspect ratio (long side length W / short side length h) is equal to or greater than the second threshold value K2. When the calculated aspect ratio (long side length W / short side length h) is equal to or greater than the second threshold value K2, the frame edge exclusion unit 22 advances the process to step S202, and when the calculated aspect ratio is less than the second threshold value K2, The process proceeds to step S205.

次に、ステップS202において、枠縁除外部22は、画像領域が中央枠Bの範囲外か否かを判定する。ここで、中央枠Bは、図6から図9に示すように、撮像範囲における中心部分の範囲を示す抽出枠であり、例えば、図3及び図4と同様の抽出枠G1の1/2の横辺幅及び縦辺幅(抽出枠G1の1/4の面積)を持つ。枠縁除外部22は、画像領域が中央枠Bの範囲外である場合に、処理をステップS206に進め(条件A)、画像領域が中央枠Bの範囲内である場合に、処理をステップS203に進める。
具体的には、図6に示される画像領域M8は、中央枠Bの範囲外であるため、上述した条件Aに基づいて、枠縁除外部22は、処理をステップS206に進める。
Next, in step S <b> 202, the frame edge exclusion unit 22 determines whether the image area is outside the range of the central frame B. Here, as shown in FIGS. 6 to 9, the central frame B is an extraction frame indicating the range of the central portion in the imaging range. For example, the central frame B is 1/2 of the extraction frame G1 as in FIGS. It has a horizontal side width and a vertical side width (an area of 1/4 of the extraction frame G1). The frame edge exclusion unit 22 advances the process to step S206 when the image area is outside the range of the center frame B (condition A), and if the image area is within the range of the center frame B, the process proceeds to step S203. Proceed to
Specifically, since the image region M8 shown in FIG. 6 is outside the range of the central frame B, the frame edge excluding unit 22 advances the process to step S206 based on the condition A described above.

次に、ステップS203において、枠縁除外部22は、画像領域が中央枠Aの範囲内か否かを判定する。ここで、中央枠Aは、図7から図9に示すように、中央枠Bより内側の範囲を示し、例えば、図3及び図4と同様の抽出枠G1の1/3の横辺幅及び縦辺幅(抽出枠G1の1/9の面積)を持つ。枠縁除外部22は、画像領域が中央枠Aの範囲内である場合に、処理をステップS205に進め(条件B)、画像領域が中央枠Aの範囲外である場合に、処理をステップS204に進める。
具体的には、図7に示される画像領域M9は、中央枠Aの範囲内であるため、上述した条件Bに基づいて、枠縁除外部22は、処理をステップS205に進める。また、図8及び図9に示される画像領域M10及びM12は、中央枠Aの範囲外であるため、枠縁除外部22は、処理をステップS204に進める。
Next, in step S <b> 203, the frame edge exclusion unit 22 determines whether the image area is within the range of the central frame A. Here, the center frame A indicates a range inside the center frame B as shown in FIG. 7 to FIG. 9, for example, a lateral width of 1/3 of the extraction frame G1 similar to that in FIG. 3 and FIG. It has a vertical side width (area of 1/9 of the extraction frame G1). The frame edge exclusion unit 22 advances the process to step S205 when the image area is within the range of the center frame A (condition B), and if the image area is outside the range of the center frame A, the process proceeds to step S204. Proceed to
Specifically, since the image region M9 shown in FIG. 7 is within the range of the center frame A, the frame edge exclusion unit 22 advances the process to step S205 based on the condition B described above. Further, since the image regions M10 and M12 shown in FIGS. 8 and 9 are outside the range of the central frame A, the frame edge exclusion unit 22 advances the processing to step S204.

次に、ステップS204において、枠縁除外部22は、画像領域が中央枠A内に他の画像領域があるか否かを判定する。枠縁除外部22は、画像領域が中央枠A内に他の画像領域がある場合に、処理をステップS206に進め(条件C)、画像領域が中央枠A内に他の画像領域がない場合に、処理をステップS205に進める(条件D)。
具体的には、図8に示される画像領域M10は、中央枠A内に他の画像領域M11があるため、上述した条件Cに基づいて、枠縁除外部22は、処理をステップS206に進める。また、図9に示される画像領域M12は、中央枠A内に他の画像領域がない(中央枠A外に画像領域M11がある)ため、枠縁除外部22は、上述した条件Dに基づいて、処理をステップS205に進める。
Next, in step S <b> 204, the frame edge exclusion unit 22 determines whether or not the image area is within the central frame A. The frame edge exclusion unit 22 advances the process to step S206 when the image area is in the central frame A (condition C), and the image area does not have any other image area in the central frame A. Then, the process proceeds to step S205 (condition D).
Specifically, since the image region M10 shown in FIG. 8 has another image region M11 in the central frame A, the frame edge exclusion unit 22 advances the processing to step S206 based on the condition C described above. . In addition, since the image region M12 shown in FIG. 9 has no other image region in the central frame A (the image region M11 is outside the central frame A), the frame edge exclusion unit 22 is based on the condition D described above. Then, the process proceeds to step S205.

次に、ステップS205において、枠縁除外部22は、画像領域(M9、M12)を枠縁画像領域でないと判定する。この場合、枠縁除外部22は、画像領域(M9、M12)を被写体候補の画像領域のうちに残し、被写体候補の画像領域のうちから除外しない。
すなわち、画像領域M9は、条件Bにより、枠縁画像領域でないと判定され、被写体候補の画像領域として残される。また、画像領域M12は、条件Dにより、枠縁画像領域でないと判定され、被写体候補の画像領域として残される。
Next, in step S205, the frame edge exclusion unit 22 determines that the image area (M9, M12) is not a frame edge image area. In this case, the frame edge exclusion unit 22 leaves the image regions (M9, M12) in the subject candidate image regions and does not exclude them from the subject candidate image regions.
That is, the image area M9 is determined not to be a frame edge image area according to the condition B, and is left as an image area of a subject candidate. The image area M12 is determined not to be a frame edge image area according to the condition D, and is left as an image area of a subject candidate.

次に、ステップS206において、枠縁除外部22は、画像領域(M8、M10)を枠縁画像領域であると判定する。この場合、枠縁除外部22は、枠縁画像領域であると判定した画像領域M8、M10)を、被写体候補の画像領域のうちから除外する。
すなわち、画像領域M8は、条件Aにより、枠縁画像領域であると判定され、被写体候補の画像領域のうちから除外される。また、画像領域M10は、条件Cにより、枠縁画像領域であると判定され、被写体候補の画像領域のうちから除外される。
Next, in step S206, the frame edge exclusion unit 22 determines that the image area (M8, M10) is a frame edge image area. In this case, the frame edge exclusion unit 22 excludes the image areas M8 and M10) determined to be the frame edge image area from the image areas of the subject candidates.
That is, the image area M8 is determined to be a frame edge image area according to the condition A, and is excluded from the subject candidate image areas. The image area M10 is determined to be a frame edge image area according to the condition C, and is excluded from the subject candidate image areas.

このように、図2のステップS108において、枠縁除外部22は、枠縁画像領域(例えば、画像領域(M8、M10))の除外処理を実行する。   As described above, in step S108 in FIG. 2, the frame edge exclusion unit 22 executes the process of excluding the frame edge image area (for example, the image area (M8, M10)).

図10は、本実施形態における画像処理部140(画像処理装置1)による被写体抽出結果の一例を示すイメージ図である。
この図において、画像処理部140は、例えば、画像領域(M14、M15)を被写体の画像領域として抽出する。また、画像処理部140は、画像領域(M14、M15)に基づいて、AF用の矩形領域(AF1、AF2)を生成する。
なお、例えば、画像処理部140の背景除外部21は、画像領域(M17、M18)を上述した第1の条件によって、背景画像領域と判定し、被写体候補の画像領域から除外する。また、例えば、画像処理部140の枠縁除外部22は、画像領域M16を上述した条件Cによって、枠縁画像領域と判定し、被写体候補の画像領域から除外する。
FIG. 10 is an image diagram illustrating an example of a subject extraction result by the image processing unit 140 (image processing apparatus 1) in the present embodiment.
In this figure, the image processing unit 140 extracts, for example, an image area (M14, M15) as an image area of a subject. Further, the image processing unit 140 generates a rectangular area (AF1, AF2) for AF based on the image area (M14, M15).
For example, the background removal unit 21 of the image processing unit 140 determines that the image region (M17, M18) is a background image region based on the first condition described above, and excludes the image region from the subject candidate image region. Further, for example, the frame edge exclusion unit 22 of the image processing unit 140 determines that the image area M16 is a frame edge image area according to the above-described condition C, and excludes the image area M16 from the subject candidate image area.

以上のように、本実施形態における画像処理装置1は、領域検出部15が、撮像された画像の特徴に基づいて、画像に含まれる画像領域を被写体候補の画像領域として検出する。被写体判定部20が、領域検出部15によって検出された被写体候補の画像領域のうちから、被写体の画像領域を抽出する。また、被写体判定部20(背景除外部21)は、被写体候補の画像領域うちの画像領域それぞれと抽出枠G1との位置関係に応じて、画像領域それぞれが背景画像領域であるか否かを判定する。そして、背景除外部21は、判定した背景画像領域を、被写体候補の画像領域のうちから除外する。すなわち、本実施形態における画像処理装置1は、特徴量算出部10が、入力された画像の特徴毎に、特徴の特徴量を算出する。領域検出部15が、特徴量算出部10により算出された特徴量毎に定まる被写体候補の画像領域を抽出する。被写体判定部20(背景除外部21)は、領域検出部15により抽出された被写体候補の画像領域と入力された画像内の予め定められた抽出範囲を示す抽出枠との位置関係に応じて、被写体候補の画像領域から抽出される被写体の画像領域を抽出するか否かを判定する。
これにより、被写体判定部20は、被写体候補の画像領域から、被写体となる可能性の低い画像領域(背景画像領域)を除外することができる。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
As described above, in the image processing apparatus 1 according to the present embodiment, the area detection unit 15 detects the image area included in the image as the image area of the subject candidate based on the characteristics of the captured image. The subject determination unit 20 extracts the subject image region from the subject candidate image regions detected by the region detection unit 15. The subject determination unit 20 (background exclusion unit 21) determines whether each image region is a background image region according to the positional relationship between each image region of the subject candidate image regions and the extraction frame G1. To do. Then, the background exclusion unit 21 excludes the determined background image area from the subject candidate image areas. That is, in the image processing apparatus 1 according to the present embodiment, the feature amount calculation unit 10 calculates the feature amount of the feature for each feature of the input image. The area detection unit 15 extracts an image area of a subject candidate determined for each feature amount calculated by the feature amount calculation unit 10. The subject determination unit 20 (background exclusion unit 21), in accordance with the positional relationship between the subject candidate image region extracted by the region detection unit 15 and an extraction frame indicating a predetermined extraction range in the input image. It is determined whether or not to extract the subject image area extracted from the subject candidate image area.
Accordingly, the subject determination unit 20 can exclude an image region (background image region) that is unlikely to be a subject from the subject candidate image region. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、被写体判定部20は、異なる特徴の特徴量毎に基づいてラベリングした画像領域同士を比較するための評点を、画像領域毎(ラベル毎)に算出する。そして、被写体判定部20は、算出した評点に基づいて、画像における「画像領域の優先度」を設定し、「画像領域の優先度」に基づいて、優先度の高い画像領域を被写体の画像領域として抽出する。
これにより、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the subject determination unit 20 calculates a score for comparing image regions labeled based on feature amounts of different features for each image region (for each label). Then, the subject determination unit 20 sets “priority of the image area” in the image based on the calculated score, and selects an image area having a high priority based on the “priority of image area” as the image area of the subject. Extract as
Thereby, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、背景除外部21及び枠縁除外部22によって、被写体候補の画像領域を絞り込んだ後に、上述の「画像領域の優先度」に基づいて、優先度の高い画像領域を被写体の画像領域として抽出する。
これにより、処理量の多い比較するための評点の算出量を低減することができる。そのため、被写体判定部20の処理量を低減することができる。
Further, after narrowing down the image areas of the subject candidates by the background excluding unit 21 and the frame edge excluding unit 22, an image area having a high priority is extracted as the image area of the subject based on the above-mentioned “priority of the image area”. To do.
Thereby, the calculation amount of the score for comparison with a large amount of processing can be reduced. Therefore, the processing amount of the subject determination unit 20 can be reduced.

また、本実施形態において、背景除外部21は、画像領域が抽出枠G1の2辺以上に接する場合に、当該画像領域を背景画像領域であると判定する。すなわち、被写体判定部20(背景除外部21)は、被写体候補の画像領域が抽出枠G1を形成する隣接した2辺(又は2辺以上)に接する場合、当該被写体候補の画像領域を被写体の画像領域として抽出しないと判定する。
これにより、背景除外部21は、被写体となる可能性の低い背景画像領域を精度良く判定することができ、被写体候補の画像領域から背景画像領域を除外する。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the background exclusion unit 21 determines that the image area is a background image area when the image area touches two or more sides of the extraction frame G1. That is, when the subject candidate image area touches two adjacent sides (or two or more sides) forming the extraction frame G1, the subject determination unit 20 (background exclusion unit 21) selects the subject candidate image area as the subject image. It is determined not to extract as a region.
As a result, the background excluding unit 21 can accurately determine a background image region that is unlikely to be a subject, and excludes the background image region from the subject candidate image region. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、背景除外部21は、画像領域が抽出枠G1の2辺に接し、且つ画像領域が抽出枠G1の対向する2辺に接する場合に、当該画像領域を被写体候補の画像領域として残す。すなわち、被写体判定部20(背景除外部21)は、被写体候補の画像領域が抽出枠を形成する対向した2辺に接する場合、当該被写体候補の画像領域を被写体の画像領域として抽出すると判定する。
これにより、背景除外部21は、被写体となる可能性の高い画像領域を予め判定し、被写体候補の画像領域として残すことができる。そのため、本実施形態における画像処理出装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the background excluding unit 21 determines that the image area is an image of a subject candidate when the image area is in contact with two sides of the extraction frame G1 and the image area is in contact with two opposite sides of the extraction frame G1. Leave as an area. That is, the subject determination unit 20 (background exclusion unit 21) determines to extract the subject candidate image region as the subject image region when the subject candidate image region touches two opposing sides forming the extraction frame.
As a result, the background exclusion unit 21 can determine in advance an image region that is likely to be a subject and leave it as an image region of a subject candidate. Therefore, the image processing output device 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、背景除外部21は、画像領域が抽出枠G1の1辺に接する線幅が予め定められた第1閾値K1(閾値K×縦線幅b)以上である場合に、当該画像領域を背景画像領域であると判定する。すなわち、被写体判定部20(背景除外部21)は、抽出枠G1を形成する1辺に接する被写体候補の画像領域の面積(又は線幅)が予め定められた第1閾値以上である場合、当該被写体候補の画像領域を被写体の画像領域として抽出しないと判定する。
これにより、背景除外部21は、被写体となる可能性の低い背景画像領域を精度良く判定することができ、被写体候補の画像領域から背景画像領域を除外する。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the background excluding unit 21 is configured such that the line width where the image region is in contact with one side of the extraction frame G1 is equal to or greater than a predetermined first threshold K1 (threshold K × vertical line width b). The image area is determined to be the background image area. That is, the subject determination unit 20 (background exclusion unit 21), when the area (or line width) of the subject candidate image area in contact with one side forming the extraction frame G1 is equal to or larger than a predetermined first threshold value, It is determined that the image area of the subject candidate is not extracted as the image area of the subject.
As a result, the background excluding unit 21 can accurately determine a background image region that is unlikely to be a subject, and excludes the background image region from the subject candidate image region. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、被写体判定部20の枠縁除外部22は、被写体候補の画像領域うちの画像領域それぞれと、撮像範囲における中心部分の範囲を示す予め定められた中央枠B(又は中央枠A)との位置関係に応じて、枠縁画像領域であるか否かを判定する。そして、枠縁除外部22は、判定した枠縁画像領域を、被写体候補の画像領域のうちから除外する。すなわち、被写体判定部20(枠縁除外部22)は、被写体候補の画像領域と、抽出枠の内側の範囲であって、入力された画像の中央部分の範囲を示す中央枠B(又は中央枠A)との位置関係に応じて、被写体候補の画像領域から抽出される被写体の画像領域(第3画像領域)を抽出するか否かを判定する。
これにより、被写体判定部20は、被写体候補の画像領域から、被写体となる可能性の低い枠縁画像領域(例えば、窓枠や窓桟等、それに類する枠的な物体による画像領域)を除外することができる。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the frame border excluding unit 22 of the subject determining unit 20 includes a predetermined central frame B (or center) indicating each of the image regions of the subject candidate image regions and the range of the central portion of the imaging range. Whether or not it is a frame edge image region is determined according to the positional relationship with the frame A). Then, the frame edge excluding unit 22 excludes the determined frame edge image area from the subject candidate image areas. In other words, the subject determination unit 20 (frame edge exclusion unit 22) is a center frame B (or center frame) indicating the range of the subject image area and the inner area of the extraction frame and the center portion of the input image. It is determined whether or not to extract the subject image area (third image area) extracted from the subject candidate image area in accordance with the positional relationship with A).
Thereby, the subject determination unit 20 excludes a frame edge image region (for example, an image region by a frame-like object such as a window frame or a window frame) that is unlikely to be a subject from the subject candidate image region. be able to. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、画像領域が中央枠B外にある場合に、当該画像領域を枠縁画像領域であると判定する。すなわち、被写体判定部20(枠縁除外部22)は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、被写体候補の画像領域が中央枠Bの範囲外にある場合、当該被写体候補の画像領域を被写体の画像領域として抽出しないと判定する。
これにより、枠縁除外部22は、被写体となる可能性の低い枠縁画像領域を精度良く判定することができ、被写体候補の画像領域から枠縁画像領域を除外する。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
Further, in the present embodiment, the frame edge exclusion unit 22 removes the image area when the aspect ratio of the image area is greater than or equal to a predetermined second threshold K2 and the image area is outside the central frame B. It determines with it being a frame edge image area | region. In other words, the subject determination unit 20 (frame edge exclusion unit 22) has an aspect ratio of the subject candidate image area equal to or greater than the predetermined second threshold K2, and the subject candidate image area is outside the range of the center frame B. If it is, the image area of the subject candidate is determined not to be extracted as the image area of the subject.
Thereby, the frame edge exclusion unit 22 can accurately determine a frame edge image area that is unlikely to be a subject, and excludes the frame edge image area from the subject candidate image area. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、被写体判定部20(枠縁除外部22)は、被写体候補の画像領域と、中央枠B(第1中央領域)と、中央枠A(第2中央領域)との位置関係に応じて、被写体候補の画像領域から抽出される被写体の画像領域を抽出するか否かを判定する。ここで、中央枠Bは、抽出枠の内側の範囲であって、入力された画像の中央部分の範囲を示す。また、中央枠Aは、第1の中央枠の内側の範囲であって、第1の中央枠の中央部分の範囲を示す。
これにより、被写体判定部20は、被写体候補の画像領域から、被写体となる可能性の低い枠縁画像領域(例えば、窓枠や窓桟等、それに類する枠的な物体による画像領域)を除外することができる。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the subject determination unit 20 (frame edge exclusion unit 22) positions the subject candidate image region, the center frame B (first center region), and the center frame A (second center region). It is determined whether or not to extract the subject image area extracted from the subject candidate image area according to the relationship. Here, the center frame B is a range inside the extraction frame and indicates the range of the center portion of the input image. The center frame A is a range inside the first center frame and indicates a range of the center portion of the first center frame.
Thereby, the subject determination unit 20 excludes a frame edge image region (for example, an image region by a frame-like object such as a window frame or a window frame) that is unlikely to be a subject from the subject candidate image region. be able to. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、中央枠には、中央枠B(第1の中央枠)と、中央枠Bより内側の範囲を示す中央枠A(第2の中央枠)とが含まれる。そして、枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、画像領域が中央枠B内及び中央枠A内にある場合に、当該画像領域を被写体候補の画像領域として残す。すなわち、被写体判定部20(枠縁除外部22)は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、被写体候補の画像領域が中央枠Bの内側の範囲及び中央枠Aの内側の範囲にある場合、当該被写体候補の画像領域を被写体の画像領域として抽出すると判定する。
これにより、枠縁除外部22は、被写体となる可能性の高い画像領域を予め判定し、被写体候補の画像領域として残すことができる。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the central frame includes a central frame B (first central frame) and a central frame A (second central frame) indicating a range inside the central frame B. The frame edge excluding unit 22 determines the image area when the aspect ratio of the image area is equal to or more than a predetermined second threshold K2 and the image area is in the central frame B and the central frame A. It is left as an image area of a subject candidate. In other words, the subject determination unit 20 (frame edge exclusion unit 22) has an aspect ratio of the subject candidate image area equal to or greater than a predetermined second threshold K2, and the subject candidate image area is located inside the center frame B. If it is within the range and the range inside the central frame A, it is determined that the image area of the subject candidate is extracted as the image area of the subject.
As a result, the frame edge exclusion unit 22 can determine in advance an image region that is likely to be a subject and leave it as an image region of a subject candidate. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、画像領域が中央枠B内であり、且つ、画像領域が中央枠A内にない場合であって、さらに、中央枠A内に他の画像領域がある場合に、当該画像領域を枠縁画像領域であると判定する。すなわち、被写体判定部20(枠縁除外部22)は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、被写体候補の画像領域が中央枠B内側の範囲及び中央枠Aの外側の範囲にある場合であって、さらに、中央枠Aに他の被写体候補の画像領域がある場合、当該被写体候補の画像領域を被写体の画像領域として抽出しないと判定する。
これにより、枠縁除外部22は、被写体となる可能性の低い枠縁画像領域を精度良く判定することができ、被写体候補の画像領域から枠縁画像領域を除外する。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the frame edge exclusion unit 22 has an image area aspect ratio equal to or greater than a predetermined second threshold K2, the image area is within the central frame B, and the image area is at the center. If it is not in the frame A and there is another image area in the center frame A, it is determined that the image area is a frame edge image area. In other words, the subject determination unit 20 (frame edge exclusion unit 22) has an aspect ratio of the subject candidate image area equal to or greater than a predetermined second threshold K2, and the subject candidate image area is within the central frame B. If the image is in the range outside the central frame A and there is another subject candidate image region in the central frame A, it is determined that the subject candidate image region is not extracted as the subject image region.
Thereby, the frame edge exclusion unit 22 can accurately determine a frame edge image area that is unlikely to be a subject, and excludes the frame edge image area from the subject candidate image area. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、枠縁除外部22は、画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、画像領域が中央枠B内であり、且つ、画像領域が中央枠A内にない場合であって、さらに、中央枠A内に他の画像領域がない場合に、当該画像領域を被写体候補の画像領域として残す。すなわち、被写体判定部20(枠縁除外部22)は、被写体候補の画像領域のアスペクト比が予め定められた第2閾値K2以上であり、且つ、被写体候補の画像領域が中央枠Bの内側の範囲及び中央枠Aの外側の範囲にある場合であって、さらに、被写体候補の画像領域に他の被写体候補の画像領域がない場合、当該被写体候補の画像領域を被写体の画像領域として抽出すると判定する。
これにより、枠縁除外部22は、被写体となる可能性の高い画像領域を予め判定し、被写体候補の画像領域として残すことができる。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In the present embodiment, the frame edge exclusion unit 22 has an image area aspect ratio equal to or greater than a predetermined second threshold K2, the image area is within the central frame B, and the image area is at the center. If it is not in the frame A and there is no other image area in the central frame A, the image area is left as an image area of the subject candidate. In other words, the subject determination unit 20 (frame edge exclusion unit 22) has an aspect ratio of the subject candidate image area equal to or greater than a predetermined second threshold K2, and the subject candidate image area is located inside the center frame B. If it is within the range and the range outside the central frame A, and there is no image area of another subject candidate in the subject candidate image area, it is determined that the subject candidate image area is extracted as the subject image area. To do.
As a result, the frame edge exclusion unit 22 can determine in advance an image region that is likely to be a subject and leave it as an image region of a subject candidate. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、本実施形態において、撮像装置100は、画像処理装置1を備えている。
これにより、撮像装置100は、撮像された画像から被写体の画像領域を適切に抽出することができる。そのため、撮像装置100は、精度よくAF処理を行うことができる。
In the present embodiment, the imaging apparatus 100 includes the image processing apparatus 1.
Thereby, the imaging device 100 can appropriately extract the image area of the subject from the captured image. Therefore, the imaging apparatus 100 can perform AF processing with high accuracy.

なお、本発明は、上記の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の実施形態において、被写体判定部20は、背景除外部21及び枠縁除外部22を備える形態を説明したが、背景除外部21と枠縁除外部22とのうちのいずれか一方を備える形態でもよい。例えば、枠縁除外部22のみを備える形態では、画像処理装置1は、特徴量算出部10が入力された画像の特徴毎に、特徴量を算出する。領域検出部15が、特徴量算出部10により算出された特徴量毎に定まる被写体候補の画像領域(第1画像領域)を抽出する。被写体判定部20(枠縁除外部22)は、領域検出部15により抽出された被写体候補の画像領域と入力された画像の中央部分の範囲を示す中央枠(中央領域)との位置関係に応じて、被写体候補の画像領域から抽出される被写体の画像領域(第2画像領域)を抽出するか否かを判定する。
これにより、被写体判定部20は、被写体候補の画像領域から、被写体となる可能性の低い画像領域(枠縁画像領域)を除外することができる。そのため、本実施形態における画像処理装置1は、撮像された画像から被写体の画像領域を適切に抽出することができる。
In addition, this invention is not limited to said embodiment, It can change in the range which does not deviate from the meaning of this invention.
For example, in the above embodiment, the subject determination unit 20 has been described as including the background exclusion unit 21 and the frame edge exclusion unit 22, but either one of the background exclusion unit 21 and the frame edge exclusion unit 22 is used. It may be provided. For example, in the embodiment including only the frame edge exclusion unit 22, the image processing apparatus 1 calculates a feature amount for each feature of the image input by the feature amount calculation unit 10. The area detection unit 15 extracts a subject candidate image area (first image area) determined for each feature amount calculated by the feature amount calculation unit 10. The subject determination unit 20 (frame edge exclusion unit 22) corresponds to the positional relationship between the image area of the subject candidate extracted by the region detection unit 15 and the central frame (center region) indicating the range of the central portion of the input image. Thus, it is determined whether or not to extract the subject image region (second image region) extracted from the subject candidate image region.
Thereby, the subject determination unit 20 can exclude an image region (frame edge image region) that is unlikely to be a subject from the subject candidate image region. Therefore, the image processing apparatus 1 in the present embodiment can appropriately extract the image area of the subject from the captured image.

また、図2に示す処理において、背景除外部21による背景画像領域の除外処理(ステップS107)が実行された後に、枠縁除外部22による枠縁画像領域の除外処理(ステップS108)が実行される形態を説明したが、これに限定されるものではない。例えば、枠縁除外部22による枠縁画像領域の除外処理(ステップS108)が、背景除外部21による背景画像領域の除外処理(ステップS107)より先に実行される形態でもよい。   Further, in the process shown in FIG. 2, after the background image area exclusion process (step S107) by the background exclusion unit 21 is executed, the frame edge image area exclusion process (step S108) by the frame edge exclusion part 22 is executed. However, the present invention is not limited to this. For example, the frame edge image region exclusion process (step S108) by the frame edge exclusion unit 22 may be executed prior to the background image region exclusion process (step S107) by the background exclusion unit 21.

また、上記の実施形態において、孤立した画像領域をノイズ画像領域(ノイズマスク)として除外する形態を説明したが、予め定められたサイズより小さい画像領域(極端に小さい画像領域)又は予め定められたサイズより大きい画像領域(極端に大きい画像領域)をノイズ画像領域とする形態でもよい。   In the above-described embodiment, the form in which the isolated image area is excluded as a noise image area (noise mask) has been described. However, an image area smaller than a predetermined size (an extremely small image area) or a predetermined size is determined. An image area larger than the size (an extremely large image area) may be a noise image area.

また、上記の実施形態において、画像処理部140は、AF用に矩形領域を生成する形態を説明したが、多角形の領域を生成する形態でもよい。また、画像処理部140は、被写体の画像領域に外接する矩形枠として、AF用矩形領域を生成する形態を説明したが、被写体の画像領域よりも少し大きめの領域を生成する形態でもよいし、他の形態でもよい。   In the above embodiment, the image processing unit 140 has been described as generating a rectangular area for AF, but may be configured to generate a polygonal area. Further, the image processing unit 140 has been described as generating the AF rectangular area as a rectangular frame circumscribing the image area of the subject, but may be configured to generate an area slightly larger than the image area of the object. Other forms are also possible.

また、上記の実施形態において、画像処理装置1によって抽出された被写体の画像領域をAF制御に適用する形態を説明したが、これに限定されるものではない。例えば、抽出した被写体の画像領域を、ホワイトバランス処理、画像領域の加工処理などの画像処理に適用する形態でもよい。また、抽出した被写体の画像領域を、切り抜いて画像を使用したり、スーパーインポーズのように貼り付けたりする画像処理に適用する形態でもよい。   In the above-described embodiment, the form in which the image area of the subject extracted by the image processing apparatus 1 is applied to the AF control has been described. However, the present invention is not limited to this. For example, the extracted image area of the subject may be applied to image processing such as white balance processing or image area processing. Further, the extracted image area of the subject may be applied to image processing in which an image is cut out and used, or pasted like superimpose.

また、図1における撮像装置100及び画像処理装置1の各機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより撮像装置100及び画像処理装置1の各処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   1 is recorded in a computer-readable recording medium, and the program recorded in the recording medium is read into a computer system and executed. By doing so, each process of the imaging apparatus 100 and the image processing apparatus 1 may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

1…画像処理装置、10…特徴量算出部、15…領域検出部、20…被写体判定部、21…背景除外部、22…枠縁除外部、100…撮像装置   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 10 ... Feature-value calculation part, 15 ... Area | region detection part, 20 ... Subject determination part, 21 ... Background exclusion part, 22 ... Frame edge exclusion part, 100 ... Imaging device

Claims (14)

画像から複数の被写体領域を検出する検出部と、  A detection unit for detecting a plurality of subject areas from the image;
前記検出部で検出された複数の前記被写体領域のうち、前記画像の第1領域を形成する、対向した2つの辺に接している被写体領域を抽出する抽出部と、  An extraction unit that extracts a subject region that is in contact with two opposite sides and forms a first region of the image among the plurality of subject regions detected by the detection unit;
を備える画像処理装置。  An image processing apparatus comprising:
画像から複数の被写体領域を検出する検出部と、  A detection unit for detecting a plurality of subject areas from the image;
前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、  An extraction unit for extracting a specific subject region from the plurality of subject regions detected by the detection unit;
を備え、  With
前記抽出部は、前記画像の第1領域を形成する1つの辺に接している面積が第1閾値以上である被写体領域を抽出しない画像処理装置。  The image processing apparatus, wherein the extraction unit does not extract a subject region whose area in contact with one side forming the first region of the image is equal to or greater than a first threshold.
画像から複数の被写体領域を検出する検出部と、  A detection unit for detecting a plurality of subject areas from the image;
前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、  An extraction unit for extracting a specific subject region from the plurality of subject regions detected by the detection unit;
を備え、  With
前記抽出部は、前記画像の第1領域を形成する1つの辺の長さと、前記辺において被写体領域が接している部分の長さと、の割合が第2閾値以上である被写体領域を抽出しない画像処理装置。  The extraction unit does not extract a subject area in which a ratio of a length of one side forming the first area of the image and a length of a portion where the subject area is in contact with the side is equal to or more than a second threshold value. Processing equipment.
前記抽出部は、前記検出部で検出された複数の前記被写体領域のうち、前記第1領域を形成する、隣接した2つの辺に接している被写体領域を抽出しない請求項1から請求項3のいずれか一項に記載の画像処理装置。  4. The extraction unit according to claim 1, wherein the extraction unit does not extract a subject region that is in contact with two adjacent sides forming the first region among the plurality of subject regions detected by the detection unit. The image processing apparatus according to any one of claims. 前記抽出部は、前記検出部で検出された複数の前記被写体領域のうち、被写体領域の少なくとも一部の領域が前記第1領域内の領域であって前記画像の中心を含む第2領域に含まれている被写体領域を抽出する請求項1から請求項4のいずれか一項に記載の画像処理装置。  The extraction unit is included in a second region in which at least a part of the subject region is a region within the first region and includes the center of the image among the plurality of subject regions detected by the detection unit. 5. The image processing apparatus according to claim 1, wherein a subject area being extracted is extracted. 画像から複数の被写体領域を検出する検出部と、  A detection unit for detecting a plurality of subject areas from the image;
前記検出部で検出された複数の前記被写体領域のうち、前記画像内に定められた第1範囲を形成する、対向した2つの辺に接している被写体領域を抽出する抽出部と、  An extraction unit that extracts a subject region that is in contact with two opposing sides and forms a first range defined in the image among the plurality of subject regions detected by the detection unit;
を備える画像処理装置。An image processing apparatus comprising:
画像から複数の被写体領域を検出する検出部と、  A detection unit for detecting a plurality of subject areas from the image;
前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、  An extraction unit for extracting a specific subject region from the plurality of subject regions detected by the detection unit;
を備え、  With
前記抽出部は、前記画像内に定められた第1範囲を形成する1つの辺に接している面積が第1閾値以上である被写体領域を抽出しない画像処理装置。  The image processing apparatus, wherein the extraction unit does not extract a subject region whose area in contact with one side forming a first range defined in the image is equal to or greater than a first threshold.
画像から複数の被写体領域を検出する検出部と、  A detection unit for detecting a plurality of subject areas from the image;
前記検出部で検出された複数の前記被写体領域のうち、特定の被写体領域を抽出する抽出部と、  An extraction unit for extracting a specific subject region from the plurality of subject regions detected by the detection unit;
を備え、  With
前記抽出部は、前記検出部で検出された複数の前記被写体領域のうち、前記画像内に定められた第1範囲を形成する1つの辺の長さと、前記辺において被写体領域が接している部分の長さと、の割合が第2閾値以上である被写体領域を抽出しない画像処理装置。  The extraction unit includes a portion of the plurality of subject areas detected by the detection unit that is in contact with the length of one side forming the first range defined in the image and the subject region at the side. An image processing apparatus that does not extract a subject area whose ratio is equal to or greater than a second threshold.
前記抽出部は、前記検出部で検出された複数の前記被写体領域のうち、前記第1範囲を形成する、隣接した2つの辺に接している被写体領域を抽出しない請求項6から請求項8のいずれか一項に記載の画像処理装置。  9. The extraction unit according to claim 6, wherein the extraction unit does not extract a subject region in contact with two adjacent sides forming the first range among the plurality of subject regions detected by the detection unit. The image processing apparatus according to any one of claims. 前記抽出部は、前記検出部で検出された複数の前記被写体領域のうち、被写体領域の少なくとも一部の領域が前記第1範囲内の範囲であって前記画像の中心を含む第2範囲に含まれている被写体領域を抽出する請求項6から請求項9のいずれか一項に記載の画像処理装置。  The extraction unit is included in a second range in which at least a part of the subject region is within the first range and includes the center of the image among the plurality of subject regions detected by the detection unit. The image processing apparatus according to claim 6, wherein a subject area that has been extracted is extracted. 請求項1から請求項10のいずれか一項に記載の画像処理装置と、  The image processing apparatus according to any one of claims 1 to 10,
前記画像処理装置の前記抽出部で抽出された被写体領域により光学像を撮像素子に導くレンズを制御する制御部と、  A control unit that controls a lens that guides an optical image to an imaging device by the subject region extracted by the extraction unit of the image processing apparatus;
を備えるレンズ制御装置。  A lens control device.
レンズから射出された光学像を撮像する撮像素子と、  An image pickup device for picking up an optical image emitted from the lens;
請求項1から請求項10のいずれか一項に記載の画像処理装置と、  The image processing apparatus according to any one of claims 1 to 10,
前記画像処理装置の前記抽出部で抽出された被写体領域により前記レンズを制御する制御部と、  A control unit that controls the lens according to the subject region extracted by the extraction unit of the image processing apparatus;
を備える撮像装置。  An imaging apparatus comprising:
コンピュータに、  On the computer,
画像から複数の被写体領域を検出する検出ステップと、  A detection step for detecting a plurality of subject areas from the image;
前記検出ステップで検出された複数の前記被写体領域のうち、前記画像の第1領域を形成する、対向した2つの辺に接している被写体領域を抽出する抽出ステップと、  An extraction step of extracting a subject region that is in contact with two opposing sides and forms a first region of the image among the plurality of subject regions detected in the detection step;
を実行させるためのプログラム。  A program for running
コンピュータに、  On the computer,
画像から複数の被写体領域を検出する検出ステップと、  A detection step for detecting a plurality of subject areas from the image;
前記検出ステップで検出された複数の前記被写体領域のうち、前記画像内に定められた第1範囲を形成する、対向した2つの辺に接している被写体領域を抽出する抽出ステップと、  An extraction step of extracting a subject region that is in contact with two opposing sides and forms a first range defined in the image among the plurality of subject regions detected in the detection step;
を実行させるためのプログラム。  A program for running
JP2011175876A 2011-08-11 2011-08-11 Image processing apparatus, imaging apparatus, and program Active JP5786544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011175876A JP5786544B2 (en) 2011-08-11 2011-08-11 Image processing apparatus, imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011175876A JP5786544B2 (en) 2011-08-11 2011-08-11 Image processing apparatus, imaging apparatus, and program

Publications (2)

Publication Number Publication Date
JP2013042201A JP2013042201A (en) 2013-02-28
JP5786544B2 true JP5786544B2 (en) 2015-09-30

Family

ID=47890234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011175876A Active JP5786544B2 (en) 2011-08-11 2011-08-11 Image processing apparatus, imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP5786544B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014232418A (en) * 2013-05-29 2014-12-11 株式会社ニコン Image processing apparatus, imaging device, and image processing program
JP6303395B2 (en) * 2013-10-24 2018-04-04 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2018121346A (en) * 2018-03-07 2018-08-02 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2848749B2 (en) * 1992-11-18 1999-01-20 富士写真フイルム株式会社 Feature image data extraction method
JP3499305B2 (en) * 1994-10-28 2004-02-23 富士写真フイルム株式会社 Face area extraction method and exposure amount determination method
JP3918141B2 (en) * 1999-08-18 2007-05-23 富士フイルム株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2013042201A (en) 2013-02-28

Similar Documents

Publication Publication Date Title
JP5159515B2 (en) Image processing apparatus and control method thereof
US8994874B2 (en) Image capture apparatus and control method therefor
JP5246078B2 (en) Object location program and camera
JP2012528506A (en) Method and apparatus for separating the top of the foreground from the background
CN104919791A (en) Image processing device, image processing method and program
JP7223079B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
JP2009111716A (en) Imaging apparatus, program and template generating method
US8582813B2 (en) Object detection device which detects object based on similarities in different frame images, and object detection method and computer-readable medium recording program
JP2013110484A (en) Image processing device, image processing method, and recording medium
JP5786544B2 (en) Image processing apparatus, imaging apparatus, and program
JP2017201818A (en) Area extraction device
US20110074982A1 (en) Apparatus and method for digital photographing
JP2011146827A (en) Unit and method for processing image, and program
US20230386166A1 (en) Image processing apparatus and electronic apparatus
JP6156532B2 (en) Region extraction device, imaging device, and region extraction program
JP4716266B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP5899693B2 (en) Region extraction device, imaging device, and region extraction program
JP5786460B2 (en) Region extraction device, imaging device, and region extraction program
JP5871175B2 (en) Region extraction device, imaging device, and region extraction program
JP6131519B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20170365063A1 (en) Image processing apparatus and method for controlling the same
JP5899700B2 (en) Region extraction device, imaging device, and region extraction program
US20230065506A1 (en) Image processing apparatus, control method thereof, and image capturing apparatus
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium
JP6003383B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150713

R150 Certificate of patent or registration of utility model

Ref document number: 5786544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250