JP2013157934A - Image processing device, imaging device, and image processing program - Google Patents
Image processing device, imaging device, and image processing program Download PDFInfo
- Publication number
- JP2013157934A JP2013157934A JP2012019021A JP2012019021A JP2013157934A JP 2013157934 A JP2013157934 A JP 2013157934A JP 2012019021 A JP2012019021 A JP 2012019021A JP 2012019021 A JP2012019021 A JP 2012019021A JP 2013157934 A JP2013157934 A JP 2013157934A
- Authority
- JP
- Japan
- Prior art keywords
- evaluation value
- subject
- area
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 29
- 238000003384 imaging method Methods 0.000 title claims description 30
- 238000011156 evaluation Methods 0.000 claims abstract description 121
- 238000000605 extraction Methods 0.000 claims abstract description 38
- 239000000284 extract Substances 0.000 claims abstract description 16
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像に含まれる領域を識別する画像処理装置、撮像装置、及び画像処理プログラムに関する。 The present invention relates to an image processing device, an imaging device, and an image processing program for identifying a region included in an image.
画像の特徴量のヒストグラムに基づいて、撮像された画像から領域を抽出し、抽出した領域を識別する画像処理装置が開示されている(特許文献1参照)。 An image processing apparatus that extracts a region from a captured image and identifies the extracted region based on a histogram of image feature values is disclosed (see Patent Document 1).
しかしながら、特許文献1に開示された画像処理装置は、撮像された画像から人が注目する領域を抽出すること、すなわち、主要被写体の領域を抽出することができなかった。
However, the image processing device disclosed in
本発明は、このような状況に鑑みてなされたもので、撮像された画像から主要被写体の領域を抽出する画像処理装置、撮像装置、及び画像処理プログラムを提供する。 The present invention has been made in view of such a situation, and provides an image processing device, an imaging device, and an image processing program that extract a region of a main subject from a captured image.
上述した課題を解決するために、本発明は、画像に含まれる複数の被写体領域を抽出する抽出部と、被写体領域毎に、被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、複数の被写体領域から、領域評価値に基づいて被写体領域を選択する選択部と、を備えることを特徴とする画像処理装置である。 In order to solve the above-described problems, the present invention provides an extraction unit that extracts a plurality of subject areas included in an image, and an evaluation value calculation that calculates a region evaluation value for each subject area based on the center of the subject area. And a selection unit that selects a subject region from a plurality of subject regions based on a region evaluation value.
また、本発明は、合焦レンズを介して被写体を撮像し、画像を生成する撮像部と、画像に含まれる複数の被写体領域を抽出する抽出部と、被写体領域毎に、被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、複数の被写体領域から、領域評価値に基づいて被写体領域を選択する選択部と、選択部によって選択された被写体領域に合焦するように合焦レンズを駆動させる駆動部と、を備えることを特徴とする撮像装置である。 The present invention also provides an imaging unit that captures an image of a subject via a focusing lens and generates an image, an extraction unit that extracts a plurality of subject regions included in the image, and a region center in the subject region for each subject region. An evaluation value calculation unit that calculates an area evaluation value based on the image, a selection unit that selects a subject area from a plurality of subject areas based on the area evaluation value, and a subject area selected by the selection unit An imaging device comprising: a driving unit that drives a focusing lens.
また、本発明は、コンピュータに、画像に含まれる複数の被写体領域を抽出するステップと、被写体領域毎に、被写体領域における領域中心に基づいて領域評価値を算出するステップと、複数の被写体領域から、領域評価値に基づいて被写体領域を選択するステップと、を実行させるための画像処理プログラムである。 Further, the present invention provides a computer for extracting a plurality of subject areas included in an image, for each subject area, calculating an area evaluation value based on the center of the subject area, and from the plurality of subject areas. And a step of selecting a subject area based on the area evaluation value.
以上説明したように、本発明によれば、画像から主要被写体の領域を抽出することができる。 As described above, according to the present invention, the region of the main subject can be extracted from the image.
以下、本発明の一実施形態について、図面を参照して説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態によるカメラシステム1の構成を示すブロック図である。カメラシステム1は、レンズ鏡筒111と、画像処理装置130を備える撮像装置100と、記憶媒体190とを備えている。ここでは、レンズ鏡筒111から入射される光学像が、撮像装置100によって撮像され、得られた画像が静止画又は動画の画像として、記憶媒体190に記憶される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a
レンズ鏡筒111は、合焦レンズ(以下、「AF(Auto Focus)レンズ」という)112と、AFエンコーダ113と、鏡筒制御部114と、レンズ駆動部115とを備えている。レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
AFレンズ112は、レンズ駆動部115により駆動され、撮像部110の撮像素子116の受光面(光電変換面)に、光学像を導く。
The
The AF lens 112 is driven by the
AFエンコーダ113は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部114に出力する。AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号である。
The
鏡筒制御部114は、撮像装置100のCPU170から入力される駆動制御信号に応じて、レンズ駆動部115を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部114は、駆動制御信号に応じて、例えば、レンズ駆動部115に出力するパルス電圧のステップ数を変更する。
また、鏡筒制御部114は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、CPU170に出力する。ここで、鏡筒制御部114は、例えば、AFレンズ112の移動量に応じた信号を、AFレンズ112の移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出することができる。
レンズ駆動部115は、鏡筒制御部114の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。
The lens
Further, the lens
The
撮像装置100は、撮像部110と、操作部120と、画像処理装置130と、表示部140と、バッファメモリ部150と、記憶部160と、CPU170と、通信部180とを備えている。
撮像部110は、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU170により制御され、撮像を行って画像を生成する。撮像部110は、撮像素子116と、A/D(Analog/Digital)変換部120とを備えている。
撮像素子116は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部117に出力する。撮像素子116は、例えば、CMOS(Complementary Metal Oxide Semiconductor)により構成される。
The
The
The
また、撮像素子116は、操作部120を介してユーザからの撮影指示を受け付けた際に得られる画像を、A/D変換部117を介して記憶媒体190に記憶させる。一方、撮像素子116は、操作部120を介してユーザからの撮影指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、バッファメモリ部150及び表示部140に、A/D変換部117を介して出力する。
Further, the
A/D変換部117は、撮像素子116によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部150に出力する。
操作部120は、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)等の操作キーを備え、ユーザからの操作入力を受け付け、操作入力に応じた信号をCPU170に出力する。
The A /
The
画像処理装置130は、記憶部160に記憶されている画像処理条件に基づいて画像処理を行う。画像処理装置130は、抽出部131と、評価値算出部132と、選択部133とを備えている。
抽出部131は、バッファメモリ部150に一時的に記憶されている画像を読み出し、読み出した画像に含まれる複数の被写体領域を抽出する。ここで、抽出部131は、バッファメモリ部150から取得した画像における複数の特徴毎に、その特徴量を算出する。特徴量には、例えば、動きベクトル、色相、彩度、明度、テクスチャ、エッジ、距離(デプス、デプスマップ、デフォーカス量)、画像におけるコントラスト(例えば、隣接する画素のコントラスト)などがある。
The
The
また、抽出部131は、これら1種類以上の特徴量に基づいて、特徴量毎に検出した画像に含まれる領域を識別するラベル(識別子)を設定するラベリング処理を行う。ラベルは、特徴量が互いに近い画素により構成された領域であって、グループ化された領域(集合)を示す。ラベリングとは、特徴量が互いに近い(例えば、彩度h=0〜20度に該当する)画素に隣接する領域を、順次検出してグループ化することである。例えば、輝度値(Y)=128±30である領域を検出し(ラベリング)、検出した領域に名称(例えば、ラベル1、ラベル2、…)をつけるのが一般的である。
Further, the
ここでは、抽出部131によるラベリングにより抽出された被写体領域を、マスクという。抽出部131は、特徴量に基づいて複数のマスクを検出すると、これら複数のマスクについて、画像における画角中心に基づいて一次評価値(画角評価値)を算出する。一次評価値は、例えば、画角中心に対するマスクのかたまり度合いを示す評価値である。具体的には、例えば、抽出部131は、画像における画角中心に対するマスクの位置、形状、かたまり度(慣性モーメント)、大きさ、充填率などのいずれかまたは複数の組み合わせに基づいて一次評価値を算出する。充填率とは、例えば、マスクの外接矩形に対するマスクの占める領域の割合である。
Here, the subject area extracted by labeling by the
また、抽出部131は、算出した一次評価値に基づいて、複数のマスクを抽出する。例えば、抽出部131は、ノイズマスク、背景マスク、画面の端にあるマスク等を除去する。図2は、抽出部131が抽出するマスクの例を示す図である。抽出部131は、符号a1に示される画像の画角中心である符号a3に対するマスクの評価値を算出する。ここで、抽出部131は、符号a2に示されるような、画像に対する一定の中心領域の外にあるマスクを除去し、中心領域の中にあるマスクを抽出する。抽出部131は、このように抽出したマスクを識別するラベルを、領域毎に記憶部160及び記憶媒体190に記憶させる。
Further, the
評価値算出部132は、抽出部131が抽出したマスク毎に、そのマスクが示す被写体領域における領域の中心であるマスク中心に基づいて二次評価値(領域評価値)を算出する。二次評価値は、例えば、マスク中心に対するマスクのかたまり度合いを示す評価値である。すなわち、抽出部131が算出する一次評価値は、画角中心に対するマスクの評価値であることに対し、評価値算出部132が算出する二次評価値は、マスク中心に対するマスクの評価値である。図3は、評価値算出部132が算出する評価値の概要を示す図である。評価値算出部132は、マスクの外接矩形を算出し、外接矩形の中心をマスク中心として、マスク中心に対するマスクの位置、形状、かたまり度(慣性モーメント)、大きさ、充填率、純色度、アスペクト比などのいずれかまたは複数の組み合わせに基づいて二次評価値を算出する。あるいは、例えばマスク中心からの各画素のヒストグラムを、X方向、Y方向に算出し、偏差の大小に応じて二次評価値を算出することもできる。ここでは、マスクの外接矩形の中心をマスク中心とする例を説明するが、マスクの重心や、マスクの内接矩形の中心をマスク中心とすることもできる。
For each mask extracted by the
選択部133は、評価値算出部132が二次評価値を算出した複数のマスクから、二次評価値に基づいてマスクを選択する。例えば、二次評価値の高いマスクを選択する。また、選択部133は、二次評価値に基づいて複数のマスクを選択した場合、複数のマスクのうち、至近側のマスクを選択する。
このように、本実施形態においては、抽出部131が算出する画角中心からのマスクの評価値(一次評価値)のみならず、評価値算出部132が算出するマスク中心からのマスクの評価値(二次評価値)を算出し、一次評価値と二次評価値とに基づいてマスクを選択する。これにより、一次評価値のみでは選択するマスクが中心に偏ってしまうところ、一定の中心領域にあるマスクについては二次評価値を算出して、マスクを選択することができる。例えば、図2に示したような例の場合、一次評価値のみでは、画角中心に近いマスクAやマスクBが選択される場合があった。これに対し、一定の中心領域内のマスクA、マスクB、マスクC、マスクDのマスク毎の二次評価値に基づいてマスクの選択を行えば、マスクCやマスクD等の、より大きく、より形がかたまっているマスクを選択することができる。
The
As described above, in the present embodiment, not only the evaluation value (primary evaluation value) of the mask from the view angle center calculated by the
表示部140は、例えば液晶ディスプレイであって、撮像部110によって得られた画像、及び操作画面等を表示する。
バッファメモリ部150は、撮像部110によって撮像された画像を、一時的に記憶する。
記憶部160は、撮像部110によって撮像された画像や、撮像装置100が備える各部が動作するための各種条件等の情報を記憶する。
The
The
The
CPU170は、設定された撮像条件(例えば絞り値、露出値等)に従って撮像部110やレンズ鏡筒111等を制御する。また、CPU170は、プレ処理又はポスト処理として、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、被写体像(オブジェクト)の追尾の設定、夜景か否かの判定の設定、色補正処理の設定、被写体像の拡大表示の設定、パンニング表示の設定、ズーム倍率に連動した明るさの最適化の設定、などを制御する。
通信部180は、カードメモリ等の取り外しが可能な記憶媒体190と接続され、この記憶媒体190への情報(画像データ、領域の情報など)の書込み、読み出し、あるいは消去を行う。
記憶媒体190は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データ、領域の情報など)を記憶する。なお、記憶媒体190は、撮像装置100と一体であってもよい。
The
The
The storage medium 190 is a storage unit that is detachably connected to the
次に、図面を参照して、本実施形態による撮像装置100の動作例を説明する。図4は、画像処理装置130が、一次評価値によってマスクを抽出した後、二次評価値に基づいてマスクを選択する動作例を示すフローチャートである。
操作部120にユーザから操作入力が入力されると、撮像部110は、画像を撮像し、スルー画像をバッファメモリ部150に記憶させる。画像処理装置130は、バッファメモリ部150に記憶されているスルー画像を読み出し(ステップS1)、基本的な画像処理を行う。ここで、基本的な画像処理とは、例えば、簡易的な露出調整(簡易AE)、ホワイトバランス調整(AWB)、ノイズリダクション(NR)である。
Next, an operation example of the
When an operation input is input from the user to the
抽出部131は、画像の特徴毎に特徴量を算出し、特徴量毎(例えば、特徴が色相である場合、緑色、赤色ごと)に基づいてラベリングし、画像からマスクを抽出する(ステップS3)。抽出部131は、特徴量毎に抽出した複数のマスクから、ノイズマスク、背景マスクを除去する(ステップS4)。また、抽出部131は、特徴量毎に抽出した複数のマスクから、画面位置に基づいて一定のマスクを除去する。例えば、画面の端にあるマスクを除去する(ステップS5)。抽出部131は、特徴量毎に検出したマスクに、そのマスクを識別するラベルを設定し、設定したラベルを、マスク毎に記憶部160に記憶させる。
The
また、抽出部131は、検出したマスク毎に画角中心に対する一次評価値を算出する(ステップS6)。そして、評価値算出部132は、複数のマスクのうち、算出した一次評価値が、例えば上位N件(Nは予め定められた任意の整数)までのN個のマスクについて、外接矩形を算出する(ステップS7)。また、評価値算出部132は、N個のマスクのそれぞれについて、外接矩形中心からの評価値である二次評価値を算出する(ステップS8)。選択部133は、評価値算出部132が算出したマスク毎の二次評価値を比較し、例えば上位2位までのマスクを選択する(ステップS9)。CPU170は、選択部133によって選択されたマスクの領域をAF矩形に整形し(ステップS10)、レンズ鏡筒111を制御して設定されたウィンドウにてコントラストスキャンを行い(ステップS11)、至近優先にてAF制御を行う(ステップS12)。これにより、レンズ駆動部115が、選択部133によって選択されたマスクに合焦するようにAFレンズ112を駆動させる。
Further, the
本実施形態では、抽出部131が、画角中心に対する中心領域の中にあるマスクを抽出する例を示したが、抽出部131は、画角中心ではない特定領域に含まれるマスクを抽出することもできる。特定領域とは、例えば、ズーム倍率に応じて変化する中心領域である。例えば、ズーム倍率が高ければ、特定領域を小さくし、ズーム倍率が低ければ、特定領域を大きくする。あるいは、画角の上半分の領域を特定領域とすることができる。この場合、例えば画像のEXIF情報に含まれる画像方向が、縦位置を示すか横位置を示すかに基づいて、画像方向に向かって上側の領域を特定領域とすることができる。あるいは、ユーザから任意の領域を選択する入力を受け付け、選択された領域を特定領域とすることもできる。また、このような特定領域の中心点に基づいて各マスクの評価値を算出することもできる。これによれば、画角中心からの評価値に依存せず、一定の領域内のマスクを等価に評価することができる。
また、抽出部131による一次評価値の算出を行わず、評価値算出部132によって算出される二次評価値のみに基づいて選択部133がマスクを選択することもできる。あるいは、抽出部131は、画角全体に含まれるマスクを抽出することもできる。
In the present embodiment, an example in which the
Alternatively, the
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第1の実施形態では、抽出部131が、一次評価値に基づく判定を行って複数のマスクを抽出した後に、この複数のマスクについて評価値算出部132が二次評価値を算出し、二次評価値に基づいてマスクを選択する例を示した。これに対し、本実施形態では、抽出部131が算出した一次評価値と評価値算出部132が算出した二次評価値との合計値に基づいて、マスクを選択する。例えば、図5は、一次評価値と二次評価値との合計値の例を示す図である。この図では、大きさやモーメント等に応じた順位に基づく合計値を算出する例を示している。ここでは、マスクAについての一次評価値の順位が1位であり、二次評価値の順位が3位である。マスクBについての一次評価値の順位が2位であり、二次評価値の順位が4位である。マスクCについての一次評価値の順位が4位であり、二次評価値の順位が2位である。マスクDについての一次評価値の順位が3位であり、二次評価値の順位が1位である。このとき、選択部133は、二次評価値の順位の値と、二次評価値の順位に0.5を乗じた値との合計値を算出し、合計値が最も低い(順位が高い)マスクを、選択する。このように、選択部133は、抽出部131が算出した一次評価値と、評価値算出部132が算出した二次評価値との合計値に基づいて、マスクを選択する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, after the
図6は、画像処理装置130が、一次評価値と二次評価値との合計値に基づいてマスクを選択する動作例を示すフローチャートである。ステップS21からステップS26までは、ステップS1からステップS6までの処理と同様である。そして、評価値算出部132は、複数のマスクのうち、算出した一次評価値が上位N件までのN個のマスクについて、そのマスクの重心を算出する(ステップS27)。また、評価値算出部132は、N個のマスクのそれぞれについて、重心からの評価値である二次評価値を算出する(ステップS28)。選択部133は、抽出部131が算出した一次評価値と、評価値算出部132が算出した二次評価値の合計値を算出し、マスク毎に算出した合計値を比較し、上位2位までのマスクを選択する(ステップS29)。ステップS30からステップS32は、ステップS10からステップS12までの処理と同様である。
FIG. 6 is a flowchart illustrating an operation example in which the
以上説明したように、本実施形態によれば、特徴量に基づいて抽出したマスクについて、まず画角中心の一次評価値を算出し、次に各マスクのマスク中心からの二次評価値を算出し、一次評価値と、二次評価値とに基づいてマスクを選択する。これにより、例えば、画面の中心領域にある複数のマスクを等価に評価し、より適切なマスクを選択することができる。 As described above, according to the present embodiment, for the mask extracted based on the feature quantity, first, the primary evaluation value from the center of the view angle is calculated, and then the secondary evaluation value from the mask center of each mask is calculated. Then, a mask is selected based on the primary evaluation value and the secondary evaluation value. Thereby, for example, a plurality of masks in the central area of the screen can be evaluated equivalently, and a more appropriate mask can be selected.
なお、本発明における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 Note that a program for realizing the function of the processing unit in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to perform image processing. May be. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
100…撮像装置、110…撮像部、115…駆動部、130…画像処理装置、131…抽出部、132…評価値算出部、133…選択部
DESCRIPTION OF
Claims (8)
前記被写体領域毎に、当該被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、
前記複数の被写体領域から、前記領域評価値に基づいて被写体領域を選択する選択部と、
を備えることを特徴とする画像処理装置。 An extraction unit for extracting a plurality of subject areas included in the image;
An evaluation value calculation unit that calculates an area evaluation value for each subject area based on the area center in the subject area;
A selection unit that selects a subject region from the plurality of subject regions based on the region evaluation value;
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the extraction unit extracts the subject area included in a specific area in the image.
ことを特徴とする請求項1に記載の画像処理装置。 The image according to claim 1, wherein the extraction unit calculates an angle-of-view evaluation value based on a center of an angle of view in the image, and extracts the plurality of subject areas based on the angle-of-view evaluation value. Processing equipment.
ことを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the selection unit selects the subject area based on a total value of the field angle evaluation value and the area evaluation value.
ことを特徴とする請求項1から請求項4までのいずれか1項に記載の画像処理装置。 The selection unit, when a plurality of the subject regions are selected based on the region evaluation value, selects a closest subject region among the plurality of subject regions. 5. The image processing device according to any one of 4 to 4.
ことを特徴とする請求項1から請求項5までのいずれか1項に記載の画像処理装置。 The evaluation value calculation unit calculates the region evaluation value based on any one or a combination of the size, moment, and filling rate of the subject region. The image processing apparatus according to any one of the above.
前記画像に含まれる複数の被写体領域を抽出する抽出部と、
前記被写体領域毎に、当該被写体領域における領域中心に基づいて領域評価値を算出する評価値算出部と、
前記複数の被写体領域から、前記領域評価値に基づいて被写体領域を選択する選択部と、
前記選択部によって選択された前記被写体領域に合焦するように前記合焦レンズを駆動させる駆動部と、
を備えることを特徴とする撮像装置。 An imaging unit that images a subject via a focusing lens and generates an image;
An extraction unit for extracting a plurality of subject areas included in the image;
An evaluation value calculation unit that calculates an area evaluation value for each subject area based on the area center in the subject area;
A selection unit that selects a subject region from the plurality of subject regions based on the region evaluation value;
A drive unit that drives the focusing lens to focus on the subject area selected by the selection unit;
An imaging apparatus comprising:
画像に含まれる複数の被写体領域を抽出するステップと、
前記被写体領域毎に、当該被写体領域における領域中心に基づいて領域評価値を算出するステップと、
前記複数の被写体領域から、前記領域評価値に基づいて被写体領域を選択するステップと、
を実行させるための画像処理プログラム。 On the computer,
Extracting a plurality of subject areas included in the image;
Calculating a region evaluation value for each subject region based on a region center in the subject region;
Selecting a subject area from the plurality of subject areas based on the area evaluation value;
An image processing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019021A JP6131519B2 (en) | 2012-01-31 | 2012-01-31 | Image processing apparatus, imaging apparatus, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019021A JP6131519B2 (en) | 2012-01-31 | 2012-01-31 | Image processing apparatus, imaging apparatus, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013157934A true JP2013157934A (en) | 2013-08-15 |
JP6131519B2 JP6131519B2 (en) | 2017-05-24 |
Family
ID=49052697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012019021A Active JP6131519B2 (en) | 2012-01-31 | 2012-01-31 | Image processing apparatus, imaging apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6131519B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019068325A (en) * | 2017-10-03 | 2019-04-25 | 日本放送協会 | Dynamic body tracker and program therefor |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007110638A (en) * | 2005-10-17 | 2007-04-26 | Nikon Corp | Object analyzing apparatus, imaging apparatus, and image processing program |
JP2008017166A (en) * | 2006-07-06 | 2008-01-24 | Fujifilm Corp | Photographing device and method, and program |
JP2008289004A (en) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | Imaging device and program thereof |
JP2009055272A (en) * | 2007-08-27 | 2009-03-12 | Seiko Epson Corp | Image processing apparatus, image processing method, and image processing program |
JP2009135824A (en) * | 2007-11-30 | 2009-06-18 | Canon Inc | Image processor and image processing method |
JP2009294416A (en) * | 2008-06-05 | 2009-12-17 | Sony Corp | Imaging apparatus and its control method |
JP2010021956A (en) * | 2008-07-14 | 2010-01-28 | Canon Inc | Imaging apparatus |
JP2010200270A (en) * | 2009-02-27 | 2010-09-09 | Nikon Corp | Image processing device, camera, and program |
JP2011019177A (en) * | 2009-07-10 | 2011-01-27 | Nikon Corp | Program for specify subject position, and camera |
JP2011039460A (en) * | 2009-08-18 | 2011-02-24 | Canon Inc | Automatic focusing device |
WO2012001947A1 (en) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | Imaging device, image processing device, image processing program recording medium |
-
2012
- 2012-01-31 JP JP2012019021A patent/JP6131519B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007110638A (en) * | 2005-10-17 | 2007-04-26 | Nikon Corp | Object analyzing apparatus, imaging apparatus, and image processing program |
JP2008017166A (en) * | 2006-07-06 | 2008-01-24 | Fujifilm Corp | Photographing device and method, and program |
JP2008289004A (en) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | Imaging device and program thereof |
JP2009055272A (en) * | 2007-08-27 | 2009-03-12 | Seiko Epson Corp | Image processing apparatus, image processing method, and image processing program |
JP2009135824A (en) * | 2007-11-30 | 2009-06-18 | Canon Inc | Image processor and image processing method |
JP2009294416A (en) * | 2008-06-05 | 2009-12-17 | Sony Corp | Imaging apparatus and its control method |
JP2010021956A (en) * | 2008-07-14 | 2010-01-28 | Canon Inc | Imaging apparatus |
JP2010200270A (en) * | 2009-02-27 | 2010-09-09 | Nikon Corp | Image processing device, camera, and program |
JP2011019177A (en) * | 2009-07-10 | 2011-01-27 | Nikon Corp | Program for specify subject position, and camera |
JP2011039460A (en) * | 2009-08-18 | 2011-02-24 | Canon Inc | Automatic focusing device |
WO2012001947A1 (en) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | Imaging device, image processing device, image processing program recording medium |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019068325A (en) * | 2017-10-03 | 2019-04-25 | 日本放送協会 | Dynamic body tracker and program therefor |
Also Published As
Publication number | Publication date |
---|---|
JP6131519B2 (en) | 2017-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10009540B2 (en) | Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data | |
JP6863284B2 (en) | Detection device, detection method, detection program and imaging device | |
JP5195660B2 (en) | Imaging apparatus, focusing method, and program | |
JP2013029656A (en) | Image pickup apparatus | |
JP2012156644A (en) | Electronic camera, program, and recording media | |
US8334919B2 (en) | Apparatus and method for digital photographing to correct subject area distortion caused by a lens | |
JP6300076B2 (en) | Imaging apparatus, imaging method, and program | |
JP2017201818A (en) | Area extraction device | |
JP6156532B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP2020017807A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP6131519B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP5278483B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5397426B2 (en) | Imaging apparatus, focusing method, and program | |
JP2011193066A (en) | Image sensing device | |
JP2013042201A (en) | Image processing apparatus, imaging apparatus, and program | |
JP5871175B2 (en) | Region extraction device, imaging device, and region extraction program | |
US10694096B2 (en) | Image pickup apparatus, method for controlling image pickup apparatus, and computer-readable storage medium | |
JP5899693B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP5899700B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP6508259B2 (en) | Imaging device and program | |
JP5888069B2 (en) | Area determination apparatus, imaging apparatus, and area determination program | |
JP4972627B2 (en) | Imaging device | |
JP6350562B2 (en) | Region extraction device, imaging device, and region extraction program | |
JP2019126090A (en) | Imaging apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170321 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6131519 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |