JP2013157934A - Image processing device, imaging device, and image processing program - Google Patents

Image processing device, imaging device, and image processing program Download PDF

Info

Publication number
JP2013157934A
JP2013157934A JP2012019021A JP2012019021A JP2013157934A JP 2013157934 A JP2013157934 A JP 2013157934A JP 2012019021 A JP2012019021 A JP 2012019021A JP 2012019021 A JP2012019021 A JP 2012019021A JP 2013157934 A JP2013157934 A JP 2013157934A
Authority
JP
Japan
Prior art keywords
evaluation value
subject
area
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012019021A
Other languages
Japanese (ja)
Other versions
JP6131519B2 (en
Inventor
Itsuhito Hokoi
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012019021A priority Critical patent/JP6131519B2/en
Publication of JP2013157934A publication Critical patent/JP2013157934A/en
Application granted granted Critical
Publication of JP6131519B2 publication Critical patent/JP6131519B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract an area of a main subject from an image.SOLUTION: An image processing device comprises: an extraction unit that extracts a plurality of subject areas included in an image; an evaluation value calculation unit that, for each subject area, calculates an area evaluation value on the basis of an area center in the subject area; and a selection unit that selects a subject area from the plurality of subject areas on the basis of the area evaluation values.

Description

本発明は、画像に含まれる領域を識別する画像処理装置、撮像装置、及び画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program for identifying a region included in an image.

画像の特徴量のヒストグラムに基づいて、撮像された画像から領域を抽出し、抽出した領域を識別する画像処理装置が開示されている(特許文献1参照)。   An image processing apparatus that extracts a region from a captured image and identifies the extracted region based on a histogram of image feature values is disclosed (see Patent Document 1).

特開平4−10079号公報Japanese Patent Laid-Open No. 4-10079

しかしながら、特許文献1に開示された画像処理装置は、撮像された画像から人が注目する領域を抽出すること、すなわち、主要被写体の領域を抽出することができなかった。   However, the image processing device disclosed in Patent Document 1 cannot extract a region that is noticed by a person from a captured image, that is, a region of a main subject.

本発明は、このような状況に鑑みてなされたもので、撮像された画像から主要被写体の領域を抽出する画像処理装置、撮像装置、及び画像処理プログラムを提供する。   The present invention has been made in view of such a situation, and provides an image processing device, an imaging device, and an image processing program that extract a region of a main subject from a captured image.

上述した課題を解決するために、本発明は、画像に含まれる複数の被写体領域を抽出する抽出部と、被写体領域毎に、被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、複数の被写体領域から、領域評価値に基づいて被写体領域を選択する選択部と、を備えることを特徴とする画像処理装置である。   In order to solve the above-described problems, the present invention provides an extraction unit that extracts a plurality of subject areas included in an image, and an evaluation value calculation that calculates a region evaluation value for each subject area based on the center of the subject area. And a selection unit that selects a subject region from a plurality of subject regions based on a region evaluation value.

また、本発明は、合焦レンズを介して被写体を撮像し、画像を生成する撮像部と、画像に含まれる複数の被写体領域を抽出する抽出部と、被写体領域毎に、被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、複数の被写体領域から、領域評価値に基づいて被写体領域を選択する選択部と、選択部によって選択された被写体領域に合焦するように合焦レンズを駆動させる駆動部と、を備えることを特徴とする撮像装置である。   The present invention also provides an imaging unit that captures an image of a subject via a focusing lens and generates an image, an extraction unit that extracts a plurality of subject regions included in the image, and a region center in the subject region for each subject region. An evaluation value calculation unit that calculates an area evaluation value based on the image, a selection unit that selects a subject area from a plurality of subject areas based on the area evaluation value, and a subject area selected by the selection unit An imaging device comprising: a driving unit that drives a focusing lens.

また、本発明は、コンピュータに、画像に含まれる複数の被写体領域を抽出するステップと、被写体領域毎に、被写体領域における領域中心に基づいて領域評価値を算出するステップと、複数の被写体領域から、領域評価値に基づいて被写体領域を選択するステップと、を実行させるための画像処理プログラムである。   Further, the present invention provides a computer for extracting a plurality of subject areas included in an image, for each subject area, calculating an area evaluation value based on the center of the subject area, and from the plurality of subject areas. And a step of selecting a subject area based on the area evaluation value.

以上説明したように、本発明によれば、画像から主要被写体の領域を抽出することができる。   As described above, according to the present invention, the region of the main subject can be extracted from the image.

本発明の一実施形態によるカメラシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the camera system by one Embodiment of this invention. 本発明の一実施形態による抽出部が抽出するマスクの例を示す図である。It is a figure which shows the example of the mask which the extraction part by one Embodiment of this invention extracts. 本発明の一実施形態による評価値算出部が算出する評価値の概要を示す図である。It is a figure which shows the outline | summary of the evaluation value which the evaluation value calculation part by one Embodiment of this invention calculates. 本発明の一実施形態による画像処理装置の動作例を示すフローチャートである。6 is a flowchart illustrating an operation example of the image processing apparatus according to the embodiment of the present invention. 本発明の一実施形態による一次評価値と二次評価値との合計値の例を示す図である。It is a figure which shows the example of the total value of the primary evaluation value and secondary evaluation value by one Embodiment of this invention. 本発明の一実施形態による画像処理装置の動作例を示すフローチャートである。6 is a flowchart illustrating an operation example of the image processing apparatus according to the embodiment of the present invention.

以下、本発明の一実施形態について、図面を参照して説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態によるカメラシステム1の構成を示すブロック図である。カメラシステム1は、レンズ鏡筒111と、画像処理装置130を備える撮像装置100と、記憶媒体190とを備えている。ここでは、レンズ鏡筒111から入射される光学像が、撮像装置100によって撮像され、得られた画像が静止画又は動画の画像として、記憶媒体190に記憶される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a camera system 1 according to the first embodiment of the present invention. The camera system 1 includes a lens barrel 111, an imaging device 100 including an image processing device 130, and a storage medium 190. Here, an optical image incident from the lens barrel 111 is picked up by the image pickup apparatus 100, and the obtained image is stored in the storage medium 190 as a still image or a moving image.

レンズ鏡筒111は、合焦レンズ(以下、「AF(Auto Focus)レンズ」という)112と、AFエンコーダ113と、鏡筒制御部114と、レンズ駆動部115とを備えている。レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
AFレンズ112は、レンズ駆動部115により駆動され、撮像部110の撮像素子116の受光面(光電変換面)に、光学像を導く。
The lens barrel 111 includes a focusing lens (hereinafter referred to as an “AF (Auto Focus) lens”) 112, an AF encoder 113, a lens barrel control unit 114, and a lens driving unit 115. The lens barrel 111 may be detachably connected to the imaging device 100 or may be integrated with the imaging device 100.
The AF lens 112 is driven by the lens driving unit 115 and guides an optical image to the light receiving surface (photoelectric conversion surface) of the imaging element 116 of the imaging unit 110.

AFエンコーダ113は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部114に出力する。AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号である。   The AF encoder 113 detects the movement of the AF lens 112 and outputs a signal corresponding to the movement amount of the AF lens 112 to the lens barrel control unit 114. The signal corresponding to the movement amount of the AF lens 112 is a sine wave signal whose phase changes according to the movement amount of the AF lens 112, for example.

鏡筒制御部114は、撮像装置100のCPU170から入力される駆動制御信号に応じて、レンズ駆動部115を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部114は、駆動制御信号に応じて、例えば、レンズ駆動部115に出力するパルス電圧のステップ数を変更する。
また、鏡筒制御部114は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、CPU170に出力する。ここで、鏡筒制御部114は、例えば、AFレンズ112の移動量に応じた信号を、AFレンズ112の移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出することができる。
レンズ駆動部115は、鏡筒制御部114の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。
The lens barrel control unit 114 controls the lens driving unit 115 in accordance with a drive control signal input from the CPU 170 of the imaging apparatus 100. Here, the drive control signal is a control signal for driving the AF lens 112 in the optical axis direction. The lens barrel control unit 114 changes, for example, the number of steps of the pulse voltage output to the lens driving unit 115 in accordance with the drive control signal.
Further, the lens barrel control unit 114 outputs the position (focus position) of the AF lens 112 in the lens barrel 111 to the CPU 170 based on a signal corresponding to the movement amount of the AF lens 112. Here, the lens barrel control unit 114 integrates, for example, a signal corresponding to the movement amount of the AF lens 112 according to the movement direction of the AF lens 112, thereby moving the AF lens 112 in the lens barrel 111 ( Position) can be calculated.
The lens driving unit 115 drives the AF lens 112 according to the control of the lens barrel control unit 114 and moves the AF lens 112 in the optical axis direction within the lens barrel 111.

撮像装置100は、撮像部110と、操作部120と、画像処理装置130と、表示部140と、バッファメモリ部150と、記憶部160と、CPU170と、通信部180とを備えている。
撮像部110は、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU170により制御され、撮像を行って画像を生成する。撮像部110は、撮像素子116と、A/D(Analog/Digital)変換部120とを備えている。
撮像素子116は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部117に出力する。撮像素子116は、例えば、CMOS(Complementary Metal Oxide Semiconductor)により構成される。
The imaging device 100 includes an imaging unit 110, an operation unit 120, an image processing device 130, a display unit 140, a buffer memory unit 150, a storage unit 160, a CPU 170, and a communication unit 180.
The imaging unit 110 is controlled by the CPU 170 in accordance with the set imaging conditions (for example, aperture value, exposure value, etc.), and performs imaging to generate an image. The imaging unit 110 includes an imaging element 116 and an A / D (Analog / Digital) conversion unit 120.
The image sensor 116 includes a photoelectric conversion surface, converts an optical image formed on the photoelectric conversion surface by the lens barrel 111 (optical system) into an electrical signal, and outputs the electrical signal to the A / D conversion unit 117. The image sensor 116 is configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor).

また、撮像素子116は、操作部120を介してユーザからの撮影指示を受け付けた際に得られる画像を、A/D変換部117を介して記憶媒体190に記憶させる。一方、撮像素子116は、操作部120を介してユーザからの撮影指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、バッファメモリ部150及び表示部140に、A/D変換部117を介して出力する。   Further, the image sensor 116 causes the storage medium 190 to store an image obtained when a shooting instruction from the user is received via the operation unit 120 via the A / D conversion unit 117. On the other hand, the image sensor 116 converts the continuously obtained image into a through image in a state where it does not accept a shooting instruction from the user via the operation unit 120, and performs A / D conversion on the buffer memory unit 150 and the display unit 140. The data is output via the unit 117.

A/D変換部117は、撮像素子116によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部150に出力する。
操作部120は、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)等の操作キーを備え、ユーザからの操作入力を受け付け、操作入力に応じた信号をCPU170に出力する。
The A / D conversion unit 117 digitizes the electrical signal converted by the image sensor 116 and outputs an image that is a digital signal to the buffer memory unit 150.
The operation unit 120 includes operation keys such as a power switch, a shutter button, and a multi-selector (cross key), receives an operation input from the user, and outputs a signal corresponding to the operation input to the CPU 170.

画像処理装置130は、記憶部160に記憶されている画像処理条件に基づいて画像処理を行う。画像処理装置130は、抽出部131と、評価値算出部132と、選択部133とを備えている。
抽出部131は、バッファメモリ部150に一時的に記憶されている画像を読み出し、読み出した画像に含まれる複数の被写体領域を抽出する。ここで、抽出部131は、バッファメモリ部150から取得した画像における複数の特徴毎に、その特徴量を算出する。特徴量には、例えば、動きベクトル、色相、彩度、明度、テクスチャ、エッジ、距離(デプス、デプスマップ、デフォーカス量)、画像におけるコントラスト(例えば、隣接する画素のコントラスト)などがある。
The image processing apparatus 130 performs image processing based on the image processing conditions stored in the storage unit 160. The image processing apparatus 130 includes an extraction unit 131, an evaluation value calculation unit 132, and a selection unit 133.
The extraction unit 131 reads an image temporarily stored in the buffer memory unit 150, and extracts a plurality of subject areas included in the read image. Here, the extraction unit 131 calculates the feature amount for each of a plurality of features in the image acquired from the buffer memory unit 150. The feature amount includes, for example, a motion vector, hue, saturation, brightness, texture, edge, distance (depth, depth map, defocus amount), contrast in an image (for example, contrast of adjacent pixels), and the like.

また、抽出部131は、これら1種類以上の特徴量に基づいて、特徴量毎に検出した画像に含まれる領域を識別するラベル(識別子)を設定するラベリング処理を行う。ラベルは、特徴量が互いに近い画素により構成された領域であって、グループ化された領域(集合)を示す。ラベリングとは、特徴量が互いに近い(例えば、彩度h=0〜20度に該当する)画素に隣接する領域を、順次検出してグループ化することである。例えば、輝度値(Y)=128±30である領域を検出し(ラベリング)、検出した領域に名称(例えば、ラベル1、ラベル2、…)をつけるのが一般的である。   Further, the extraction unit 131 performs a labeling process for setting a label (identifier) for identifying a region included in the image detected for each feature amount based on the one or more types of feature amounts. The label indicates a grouped region (set), which is a region composed of pixels whose feature amounts are close to each other. Labeling is to sequentially detect and group areas adjacent to pixels whose feature amounts are close to each other (for example, corresponding to saturation h = 0 to 20 degrees). For example, it is common to detect an area where the luminance value (Y) = 128 ± 30 (labeling) and name the detected area (for example, label 1, label 2,...).

ここでは、抽出部131によるラベリングにより抽出された被写体領域を、マスクという。抽出部131は、特徴量に基づいて複数のマスクを検出すると、これら複数のマスクについて、画像における画角中心に基づいて一次評価値(画角評価値)を算出する。一次評価値は、例えば、画角中心に対するマスクのかたまり度合いを示す評価値である。具体的には、例えば、抽出部131は、画像における画角中心に対するマスクの位置、形状、かたまり度(慣性モーメント)、大きさ、充填率などのいずれかまたは複数の組み合わせに基づいて一次評価値を算出する。充填率とは、例えば、マスクの外接矩形に対するマスクの占める領域の割合である。   Here, the subject area extracted by labeling by the extraction unit 131 is referred to as a mask. When the extraction unit 131 detects a plurality of masks based on the feature amount, the extraction unit 131 calculates a primary evaluation value (view angle evaluation value) for each of the plurality of masks based on the view angle center in the image. The primary evaluation value is, for example, an evaluation value indicating the degree of mask clumping with respect to the center of the angle of view. Specifically, for example, the extraction unit 131 performs the primary evaluation value based on one or a combination of the position, shape, degree of mass (moment of inertia), size, filling rate, and the like with respect to the center of the angle of view in the image. Is calculated. The filling rate is, for example, the ratio of the area occupied by the mask to the circumscribed rectangle of the mask.

また、抽出部131は、算出した一次評価値に基づいて、複数のマスクを抽出する。例えば、抽出部131は、ノイズマスク、背景マスク、画面の端にあるマスク等を除去する。図2は、抽出部131が抽出するマスクの例を示す図である。抽出部131は、符号a1に示される画像の画角中心である符号a3に対するマスクの評価値を算出する。ここで、抽出部131は、符号a2に示されるような、画像に対する一定の中心領域の外にあるマスクを除去し、中心領域の中にあるマスクを抽出する。抽出部131は、このように抽出したマスクを識別するラベルを、領域毎に記憶部160及び記憶媒体190に記憶させる。   Further, the extraction unit 131 extracts a plurality of masks based on the calculated primary evaluation value. For example, the extraction unit 131 removes a noise mask, a background mask, a mask at the edge of the screen, and the like. FIG. 2 is a diagram illustrating an example of a mask extracted by the extraction unit 131. The extraction unit 131 calculates an evaluation value of the mask for the code a3 that is the center of the angle of view of the image indicated by the code a1. Here, the extraction unit 131 removes a mask outside a certain center region with respect to the image, as indicated by reference numeral a2, and extracts a mask within the center region. The extraction unit 131 stores a label for identifying the extracted mask in the storage unit 160 and the storage medium 190 for each region.

評価値算出部132は、抽出部131が抽出したマスク毎に、そのマスクが示す被写体領域における領域の中心であるマスク中心に基づいて二次評価値(領域評価値)を算出する。二次評価値は、例えば、マスク中心に対するマスクのかたまり度合いを示す評価値である。すなわち、抽出部131が算出する一次評価値は、画角中心に対するマスクの評価値であることに対し、評価値算出部132が算出する二次評価値は、マスク中心に対するマスクの評価値である。図3は、評価値算出部132が算出する評価値の概要を示す図である。評価値算出部132は、マスクの外接矩形を算出し、外接矩形の中心をマスク中心として、マスク中心に対するマスクの位置、形状、かたまり度(慣性モーメント)、大きさ、充填率、純色度、アスペクト比などのいずれかまたは複数の組み合わせに基づいて二次評価値を算出する。あるいは、例えばマスク中心からの各画素のヒストグラムを、X方向、Y方向に算出し、偏差の大小に応じて二次評価値を算出することもできる。ここでは、マスクの外接矩形の中心をマスク中心とする例を説明するが、マスクの重心や、マスクの内接矩形の中心をマスク中心とすることもできる。   For each mask extracted by the extraction unit 131, the evaluation value calculation unit 132 calculates a secondary evaluation value (region evaluation value) based on the mask center that is the center of the region in the subject region indicated by the mask. The secondary evaluation value is, for example, an evaluation value indicating the degree of mask clumping with respect to the mask center. That is, the primary evaluation value calculated by the extraction unit 131 is the evaluation value of the mask with respect to the center of the view angle, whereas the secondary evaluation value calculated by the evaluation value calculation unit 132 is the evaluation value of the mask with respect to the mask center. . FIG. 3 is a diagram showing an outline of the evaluation value calculated by the evaluation value calculation unit 132. The evaluation value calculation unit 132 calculates a circumscribed rectangle of the mask, and uses the center of the circumscribed rectangle as the mask center, the position, shape, degree of blockiness (moment of inertia), size, filling rate, pure chromaticity, aspect of the mask. A secondary evaluation value is calculated based on one or a plurality of combinations such as a ratio. Alternatively, for example, a histogram of each pixel from the mask center can be calculated in the X direction and the Y direction, and the secondary evaluation value can be calculated according to the magnitude of the deviation. Here, an example in which the center of the circumscribed rectangle of the mask is the center of the mask will be described, but the center of gravity of the mask or the center of the inscribed rectangle of the mask may be used as the center of the mask.

選択部133は、評価値算出部132が二次評価値を算出した複数のマスクから、二次評価値に基づいてマスクを選択する。例えば、二次評価値の高いマスクを選択する。また、選択部133は、二次評価値に基づいて複数のマスクを選択した場合、複数のマスクのうち、至近側のマスクを選択する。
このように、本実施形態においては、抽出部131が算出する画角中心からのマスクの評価値(一次評価値)のみならず、評価値算出部132が算出するマスク中心からのマスクの評価値(二次評価値)を算出し、一次評価値と二次評価値とに基づいてマスクを選択する。これにより、一次評価値のみでは選択するマスクが中心に偏ってしまうところ、一定の中心領域にあるマスクについては二次評価値を算出して、マスクを選択することができる。例えば、図2に示したような例の場合、一次評価値のみでは、画角中心に近いマスクAやマスクBが選択される場合があった。これに対し、一定の中心領域内のマスクA、マスクB、マスクC、マスクDのマスク毎の二次評価値に基づいてマスクの選択を行えば、マスクCやマスクD等の、より大きく、より形がかたまっているマスクを選択することができる。
The selection unit 133 selects a mask based on the secondary evaluation value from the plurality of masks for which the evaluation value calculation unit 132 has calculated the secondary evaluation value. For example, a mask having a high secondary evaluation value is selected. In addition, when the selection unit 133 selects a plurality of masks based on the secondary evaluation value, the selection unit 133 selects the closest mask from the plurality of masks.
As described above, in the present embodiment, not only the evaluation value (primary evaluation value) of the mask from the view angle center calculated by the extraction unit 131 but also the evaluation value of the mask from the mask center calculated by the evaluation value calculation unit 132. (Secondary evaluation value) is calculated, and a mask is selected based on the primary evaluation value and the secondary evaluation value. As a result, the mask to be selected is biased toward the center with only the primary evaluation value, so that the mask can be selected by calculating the secondary evaluation value for the mask in a certain central region. For example, in the case of the example shown in FIG. 2, the mask A and the mask B close to the center of the angle of view may be selected only by the primary evaluation value. On the other hand, if the mask is selected based on the secondary evaluation value for each mask of the mask A, mask B, mask C, and mask D within a certain central region, the mask C, the mask D, etc. are larger. A mask with more shape can be selected.

表示部140は、例えば液晶ディスプレイであって、撮像部110によって得られた画像、及び操作画面等を表示する。
バッファメモリ部150は、撮像部110によって撮像された画像を、一時的に記憶する。
記憶部160は、撮像部110によって撮像された画像や、撮像装置100が備える各部が動作するための各種条件等の情報を記憶する。
The display unit 140 is, for example, a liquid crystal display, and displays an image obtained by the imaging unit 110, an operation screen, and the like.
The buffer memory unit 150 temporarily stores the image captured by the imaging unit 110.
The storage unit 160 stores information such as images captured by the image capturing unit 110 and various conditions for operating each unit included in the image capturing apparatus 100.

CPU170は、設定された撮像条件(例えば絞り値、露出値等)に従って撮像部110やレンズ鏡筒111等を制御する。また、CPU170は、プレ処理又はポスト処理として、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像(オブジェクト)の追尾の設定、夜景か否かの判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。
通信部180は、カードメモリ等の取り外しが可能な記憶媒体190と接続され、この記憶媒体190への情報(画像データ、領域の情報など)の書込み、読み出し、あるいは消去を行う。
記憶媒体190は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データ、領域の情報など)を記憶する。なお、記憶媒体190は、撮像装置100と一体であってもよい。
The CPU 170 controls the imaging unit 110, the lens barrel 111, and the like according to the set imaging conditions (for example, aperture value, exposure value, etc.). Also, the CPU 170 performs focus adjustment (AF) setting, exposure adjustment (AE) setting, white balance adjustment (AWB) setting, subject image (object) tracking setting, and night scene as pre-processing or post-processing. Control for determining whether or not, setting of color correction processing, setting of enlarged display of a subject image, setting of panning display, setting of optimization of brightness linked to zoom magnification, and the like.
The communication unit 180 is connected to a removable storage medium 190 such as a card memory, and performs writing, reading, or erasing of information (image data, area information, etc.) on the storage medium 190.
The storage medium 190 is a storage unit that is detachably connected to the imaging apparatus 100 and stores information (image data, area information, and the like). Note that the storage medium 190 may be integrated with the imaging device 100.

次に、図面を参照して、本実施形態による撮像装置100の動作例を説明する。図4は、画像処理装置130が、一次評価値によってマスクを抽出した後、二次評価値に基づいてマスクを選択する動作例を示すフローチャートである。
操作部120にユーザから操作入力が入力されると、撮像部110は、画像を撮像し、スルー画像をバッファメモリ部150に記憶させる。画像処理装置130は、バッファメモリ部150に記憶されているスルー画像を読み出し(ステップS1)、基本的な画像処理を行う。ここで、基本的な画像処理とは、例えば、簡易的な露出調整(簡易AE)、ホワイトバランス調整(AWB)、ノイズリダクション(NR)である。
Next, an operation example of the imaging apparatus 100 according to the present embodiment will be described with reference to the drawings. FIG. 4 is a flowchart illustrating an operation example in which the image processing apparatus 130 selects a mask based on the secondary evaluation value after extracting the mask based on the primary evaluation value.
When an operation input is input from the user to the operation unit 120, the imaging unit 110 captures an image and stores the through image in the buffer memory unit 150. The image processing apparatus 130 reads through images stored in the buffer memory unit 150 (step S1) and performs basic image processing. Here, basic image processing includes, for example, simple exposure adjustment (simple AE), white balance adjustment (AWB), and noise reduction (NR).

抽出部131は、画像の特徴毎に特徴量を算出し、特徴量毎(例えば、特徴が色相である場合、緑色、赤色ごと)に基づいてラベリングし、画像からマスクを抽出する(ステップS3)。抽出部131は、特徴量毎に抽出した複数のマスクから、ノイズマスク、背景マスクを除去する(ステップS4)。また、抽出部131は、特徴量毎に抽出した複数のマスクから、画面位置に基づいて一定のマスクを除去する。例えば、画面の端にあるマスクを除去する(ステップS5)。抽出部131は、特徴量毎に検出したマスクに、そのマスクを識別するラベルを設定し、設定したラベルを、マスク毎に記憶部160に記憶させる。   The extraction unit 131 calculates a feature amount for each feature of the image, performs labeling based on each feature amount (for example, green and red when the feature is a hue), and extracts a mask from the image (step S3). . The extraction unit 131 removes the noise mask and the background mask from the plurality of masks extracted for each feature amount (step S4). Further, the extraction unit 131 removes a certain mask from the plurality of masks extracted for each feature amount based on the screen position. For example, the mask at the edge of the screen is removed (step S5). The extraction unit 131 sets a label for identifying the mask in the mask detected for each feature amount, and causes the storage unit 160 to store the set label for each mask.

また、抽出部131は、検出したマスク毎に画角中心に対する一次評価値を算出する(ステップS6)。そして、評価値算出部132は、複数のマスクのうち、算出した一次評価値が、例えば上位N件(Nは予め定められた任意の整数)までのN個のマスクについて、外接矩形を算出する(ステップS7)。また、評価値算出部132は、N個のマスクのそれぞれについて、外接矩形中心からの評価値である二次評価値を算出する(ステップS8)。選択部133は、評価値算出部132が算出したマスク毎の二次評価値を比較し、例えば上位2位までのマスクを選択する(ステップS9)。CPU170は、選択部133によって選択されたマスクの領域をAF矩形に整形し(ステップS10)、レンズ鏡筒111を制御して設定されたウィンドウにてコントラストスキャンを行い(ステップS11)、至近優先にてAF制御を行う(ステップS12)。これにより、レンズ駆動部115が、選択部133によって選択されたマスクに合焦するようにAFレンズ112を駆動させる。   Further, the extraction unit 131 calculates a primary evaluation value with respect to the center of the angle of view for each detected mask (step S6). Then, the evaluation value calculation unit 132 calculates circumscribed rectangles for N masks whose calculated primary evaluation values are, for example, the top N (N is a predetermined arbitrary integer) among the plurality of masks. (Step S7). Further, the evaluation value calculation unit 132 calculates a secondary evaluation value, which is an evaluation value from the circumscribed rectangle center, for each of the N masks (step S8). The selection unit 133 compares the secondary evaluation values for each mask calculated by the evaluation value calculation unit 132, and selects, for example, the top two masks (step S9). The CPU 170 shapes the mask area selected by the selection unit 133 into an AF rectangle (step S10), performs a contrast scan in the window set by controlling the lens barrel 111 (step S11), and gives priority to the closest distance. AF control is then performed (step S12). Thereby, the lens driving unit 115 drives the AF lens 112 so as to focus on the mask selected by the selection unit 133.

本実施形態では、抽出部131が、画角中心に対する中心領域の中にあるマスクを抽出する例を示したが、抽出部131は、画角中心ではない特定領域に含まれるマスクを抽出することもできる。特定領域とは、例えば、ズーム倍率に応じて変化する中心領域である。例えば、ズーム倍率が高ければ、特定領域を小さくし、ズーム倍率が低ければ、特定領域を大きくする。あるいは、画角の上半分の領域を特定領域とすることができる。この場合、例えば画像のEXIF情報に含まれる画像方向が、縦位置を示すか横位置を示すかに基づいて、画像方向に向かって上側の領域を特定領域とすることができる。あるいは、ユーザから任意の領域を選択する入力を受け付け、選択された領域を特定領域とすることもできる。また、このような特定領域の中心点に基づいて各マスクの評価値を算出することもできる。これによれば、画角中心からの評価値に依存せず、一定の領域内のマスクを等価に評価することができる。
また、抽出部131による一次評価値の算出を行わず、評価値算出部132によって算出される二次評価値のみに基づいて選択部133がマスクを選択することもできる。あるいは、抽出部131は、画角全体に含まれるマスクを抽出することもできる。
In the present embodiment, an example in which the extraction unit 131 extracts a mask in the center region with respect to the center of the angle of view has been described. You can also. The specific area is, for example, a central area that changes according to the zoom magnification. For example, if the zoom magnification is high, the specific area is reduced, and if the zoom magnification is low, the specific area is increased. Alternatively, the upper half area of the angle of view can be set as the specific area. In this case, for example, based on whether the image direction included in the EXIF information of the image indicates a vertical position or a horizontal position, the upper area toward the image direction can be set as the specific area. Or the input which selects the arbitrary area | regions from a user is received, and the selected area | region can also be made into a specific area | region. Also, the evaluation value of each mask can be calculated based on the center point of such a specific area. According to this, a mask in a certain region can be evaluated equivalently without depending on the evaluation value from the center of the angle of view.
Alternatively, the selection unit 133 may select a mask based on only the secondary evaluation value calculated by the evaluation value calculation unit 132 without calculating the primary evaluation value by the extraction unit 131. Or the extraction part 131 can also extract the mask contained in the whole view angle.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第1の実施形態では、抽出部131が、一次評価値に基づく判定を行って複数のマスクを抽出した後に、この複数のマスクについて評価値算出部132が二次評価値を算出し、二次評価値に基づいてマスクを選択する例を示した。これに対し、本実施形態では、抽出部131が算出した一次評価値と評価値算出部132が算出した二次評価値との合計値に基づいて、マスクを選択する。例えば、図5は、一次評価値と二次評価値との合計値の例を示す図である。この図では、大きさやモーメント等に応じた順位に基づく合計値を算出する例を示している。ここでは、マスクAについての一次評価値の順位が1位であり、二次評価値の順位が3位である。マスクBについての一次評価値の順位が2位であり、二次評価値の順位が4位である。マスクCについての一次評価値の順位が4位であり、二次評価値の順位が2位である。マスクDについての一次評価値の順位が3位であり、二次評価値の順位が1位である。このとき、選択部133は、二次評価値の順位の値と、二次評価値の順位に0.5を乗じた値との合計値を算出し、合計値が最も低い(順位が高い)マスクを、選択する。このように、選択部133は、抽出部131が算出した一次評価値と、評価値算出部132が算出した二次評価値との合計値に基づいて、マスクを選択する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, after the extraction unit 131 performs determination based on the primary evaluation value and extracts a plurality of masks, the evaluation value calculation unit 132 calculates a secondary evaluation value for the plurality of masks, The example which selected the mask based on the evaluation value was shown. On the other hand, in this embodiment, a mask is selected based on the total value of the primary evaluation value calculated by the extraction unit 131 and the secondary evaluation value calculated by the evaluation value calculation unit 132. For example, FIG. 5 is a diagram illustrating an example of the total value of the primary evaluation value and the secondary evaluation value. This figure shows an example of calculating the total value based on the rank according to the magnitude, moment, and the like. Here, the rank of the primary evaluation value for the mask A is 1st, and the rank of the secondary evaluation value is 3rd. The rank of the primary evaluation value for the mask B is 2nd, and the rank of the secondary evaluation value is 4th. The rank of the primary evaluation value for the mask C is 4th, and the rank of the secondary evaluation value is 2nd. The rank of the primary evaluation value for the mask D is 3rd, and the rank of the secondary evaluation value is 1st. At this time, the selection unit 133 calculates the total value of the rank value of the secondary evaluation value and the value obtained by multiplying the rank of the secondary evaluation value by 0.5, and the total value is the lowest (the rank is high). Select a mask. As described above, the selection unit 133 selects a mask based on the total value of the primary evaluation value calculated by the extraction unit 131 and the secondary evaluation value calculated by the evaluation value calculation unit 132.

図6は、画像処理装置130が、一次評価値と二次評価値との合計値に基づいてマスクを選択する動作例を示すフローチャートである。ステップS21からステップS26までは、ステップS1からステップS6までの処理と同様である。そして、評価値算出部132は、複数のマスクのうち、算出した一次評価値が上位N件までのN個のマスクについて、そのマスクの重心を算出する(ステップS27)。また、評価値算出部132は、N個のマスクのそれぞれについて、重心からの評価値である二次評価値を算出する(ステップS28)。選択部133は、抽出部131が算出した一次評価値と、評価値算出部132が算出した二次評価値の合計値を算出し、マスク毎に算出した合計値を比較し、上位2位までのマスクを選択する(ステップS29)。ステップS30からステップS32は、ステップS10からステップS12までの処理と同様である。   FIG. 6 is a flowchart illustrating an operation example in which the image processing apparatus 130 selects a mask based on the total value of the primary evaluation value and the secondary evaluation value. Steps S21 to S26 are the same as steps S1 to S6. Then, the evaluation value calculation unit 132 calculates the center of gravity of the masks of the N masks whose calculated primary evaluation values are the top N among the plurality of masks (step S27). Further, the evaluation value calculation unit 132 calculates a secondary evaluation value that is an evaluation value from the center of gravity for each of the N masks (step S28). The selection unit 133 calculates the total value of the primary evaluation value calculated by the extraction unit 131 and the secondary evaluation value calculated by the evaluation value calculation unit 132, compares the total value calculated for each mask, and obtains the second highest rank. Is selected (step S29). Steps S30 to S32 are the same as the processes from step S10 to step S12.

以上説明したように、本実施形態によれば、特徴量に基づいて抽出したマスクについて、まず画角中心の一次評価値を算出し、次に各マスクのマスク中心からの二次評価値を算出し、一次評価値と、二次評価値とに基づいてマスクを選択する。これにより、例えば、画面の中心領域にある複数のマスクを等価に評価し、より適切なマスクを選択することができる。   As described above, according to the present embodiment, for the mask extracted based on the feature quantity, first, the primary evaluation value from the center of the view angle is calculated, and then the secondary evaluation value from the mask center of each mask is calculated. Then, a mask is selected based on the primary evaluation value and the secondary evaluation value. Thereby, for example, a plurality of masks in the central area of the screen can be evaluated equivalently, and a more appropriate mask can be selected.

なお、本発明における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Note that a program for realizing the function of the processing unit in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to perform image processing. May be. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

100…撮像装置、110…撮像部、115…駆動部、130…画像処理装置、131…抽出部、132…評価値算出部、133…選択部   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Imaging part, 115 ... Drive part, 130 ... Image processing apparatus, 131 ... Extraction part, 132 ... Evaluation value calculation part, 133 ... Selection part

Claims (8)

画像に含まれる複数の被写体領域を抽出する抽出部と、
前記被写体領域毎に、当該被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、
前記複数の被写体領域から、前記領域評価値に基づいて被写体領域を選択する選択部と、
を備えることを特徴とする画像処理装置。
An extraction unit for extracting a plurality of subject areas included in the image;
An evaluation value calculation unit that calculates an area evaluation value for each subject area based on the area center in the subject area;
A selection unit that selects a subject region from the plurality of subject regions based on the region evaluation value;
An image processing apparatus comprising:
前記抽出部は、前記画像における特定領域に含まれる前記被写体領域を抽出する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the extraction unit extracts the subject area included in a specific area in the image.
前記抽出部は、前記画像における画角中心に基づいて画角評価値を算出し、当該画角評価値に基づいて前記複数の被写体領域を抽出する
ことを特徴とする請求項1に記載の画像処理装置。
The image according to claim 1, wherein the extraction unit calculates an angle-of-view evaluation value based on a center of an angle of view in the image, and extracts the plurality of subject areas based on the angle-of-view evaluation value. Processing equipment.
前記選択部は、前記画角評価値と前記領域評価値との合計値に基づいて、前記被写体領域を選択する
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the selection unit selects the subject area based on a total value of the field angle evaluation value and the area evaluation value.
前記選択部は、前記領域評価値に基づいて複数の前記被写体領域が選択されると、当該複数の被写体領域のうち、至近側の被写体領域を選択する
ことを特徴とする請求項1から請求項4までのいずれか1項に記載の画像処理装置。
The selection unit, when a plurality of the subject regions are selected based on the region evaluation value, selects a closest subject region among the plurality of subject regions. 5. The image processing device according to any one of 4 to 4.
前記評価値算出部は、前記被写体領域の大きさと、モーメントと、充填率とのいずれかまたは複数の組み合わせに基づいて前記領域評価値を算出する
ことを特徴とする請求項1から請求項5までのいずれか1項に記載の画像処理装置。
The evaluation value calculation unit calculates the region evaluation value based on any one or a combination of the size, moment, and filling rate of the subject region. The image processing apparatus according to any one of the above.
合焦レンズを介して被写体を撮像し、画像を生成する撮像部と、
前記画像に含まれる複数の被写体領域を抽出する抽出部と、
前記被写体領域毎に、当該被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、
前記複数の被写体領域から、前記領域評価値に基づいて被写体領域を選択する選択部と、
前記選択部によって選択された前記被写体領域に合焦するように前記合焦レンズを駆動させる駆動部と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject via a focusing lens and generates an image;
An extraction unit for extracting a plurality of subject areas included in the image;
An evaluation value calculation unit that calculates an area evaluation value for each subject area based on the area center in the subject area;
A selection unit that selects a subject region from the plurality of subject regions based on the region evaluation value;
A drive unit that drives the focusing lens to focus on the subject area selected by the selection unit;
An imaging apparatus comprising:
コンピュータに、
画像に含まれる複数の被写体領域を抽出するステップと、
前記被写体領域毎に、当該被写体領域における領域中心に基づいて領域評価値を算出するステップと、
前記複数の被写体領域から、前記領域評価値に基づいて被写体領域を選択するステップと、
を実行させるための画像処理プログラム。
On the computer,
Extracting a plurality of subject areas included in the image;
Calculating a region evaluation value for each subject region based on a region center in the subject region;
Selecting a subject area from the plurality of subject areas based on the area evaluation value;
An image processing program for executing
JP2012019021A 2012-01-31 2012-01-31 Image processing apparatus, imaging apparatus, and image processing program Active JP6131519B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012019021A JP6131519B2 (en) 2012-01-31 2012-01-31 Image processing apparatus, imaging apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012019021A JP6131519B2 (en) 2012-01-31 2012-01-31 Image processing apparatus, imaging apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2013157934A true JP2013157934A (en) 2013-08-15
JP6131519B2 JP6131519B2 (en) 2017-05-24

Family

ID=49052697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012019021A Active JP6131519B2 (en) 2012-01-31 2012-01-31 Image processing apparatus, imaging apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP6131519B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019068325A (en) * 2017-10-03 2019-04-25 日本放送協会 Dynamic body tracker and program therefor

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110638A (en) * 2005-10-17 2007-04-26 Nikon Corp Object analyzing apparatus, imaging apparatus, and image processing program
JP2008017166A (en) * 2006-07-06 2008-01-24 Fujifilm Corp Photographing device and method, and program
JP2008289004A (en) * 2007-05-18 2008-11-27 Casio Comput Co Ltd Imaging device and program thereof
JP2009055272A (en) * 2007-08-27 2009-03-12 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP2009135824A (en) * 2007-11-30 2009-06-18 Canon Inc Image processor and image processing method
JP2009294416A (en) * 2008-06-05 2009-12-17 Sony Corp Imaging apparatus and its control method
JP2010021956A (en) * 2008-07-14 2010-01-28 Canon Inc Imaging apparatus
JP2010200270A (en) * 2009-02-27 2010-09-09 Nikon Corp Image processing device, camera, and program
JP2011019177A (en) * 2009-07-10 2011-01-27 Nikon Corp Program for specify subject position, and camera
JP2011039460A (en) * 2009-08-18 2011-02-24 Canon Inc Automatic focusing device
WO2012001947A1 (en) * 2010-06-28 2012-01-05 株式会社ニコン Imaging device, image processing device, image processing program recording medium

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110638A (en) * 2005-10-17 2007-04-26 Nikon Corp Object analyzing apparatus, imaging apparatus, and image processing program
JP2008017166A (en) * 2006-07-06 2008-01-24 Fujifilm Corp Photographing device and method, and program
JP2008289004A (en) * 2007-05-18 2008-11-27 Casio Comput Co Ltd Imaging device and program thereof
JP2009055272A (en) * 2007-08-27 2009-03-12 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP2009135824A (en) * 2007-11-30 2009-06-18 Canon Inc Image processor and image processing method
JP2009294416A (en) * 2008-06-05 2009-12-17 Sony Corp Imaging apparatus and its control method
JP2010021956A (en) * 2008-07-14 2010-01-28 Canon Inc Imaging apparatus
JP2010200270A (en) * 2009-02-27 2010-09-09 Nikon Corp Image processing device, camera, and program
JP2011019177A (en) * 2009-07-10 2011-01-27 Nikon Corp Program for specify subject position, and camera
JP2011039460A (en) * 2009-08-18 2011-02-24 Canon Inc Automatic focusing device
WO2012001947A1 (en) * 2010-06-28 2012-01-05 株式会社ニコン Imaging device, image processing device, image processing program recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019068325A (en) * 2017-10-03 2019-04-25 日本放送協会 Dynamic body tracker and program therefor

Also Published As

Publication number Publication date
JP6131519B2 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
JP6863284B2 (en) Detection device, detection method, detection program and imaging device
JP5195660B2 (en) Imaging apparatus, focusing method, and program
JP2013029656A (en) Image pickup apparatus
JP2012156644A (en) Electronic camera, program, and recording media
US8334919B2 (en) Apparatus and method for digital photographing to correct subject area distortion caused by a lens
JP6300076B2 (en) Imaging apparatus, imaging method, and program
JP2017201818A (en) Area extraction device
JP6156532B2 (en) Region extraction device, imaging device, and region extraction program
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP6131519B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP5397426B2 (en) Imaging apparatus, focusing method, and program
JP2011193066A (en) Image sensing device
JP2013042201A (en) Image processing apparatus, imaging apparatus, and program
JP5871175B2 (en) Region extraction device, imaging device, and region extraction program
US10694096B2 (en) Image pickup apparatus, method for controlling image pickup apparatus, and computer-readable storage medium
JP5899693B2 (en) Region extraction device, imaging device, and region extraction program
JP5899700B2 (en) Region extraction device, imaging device, and region extraction program
JP6508259B2 (en) Imaging device and program
JP5888069B2 (en) Area determination apparatus, imaging apparatus, and area determination program
JP4972627B2 (en) Imaging device
JP6350562B2 (en) Region extraction device, imaging device, and region extraction program
JP2019126090A (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6131519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250