JP2021150857A - 画像処理装置及び方法、及び、撮像装置 - Google Patents

画像処理装置及び方法、及び、撮像装置 Download PDF

Info

Publication number
JP2021150857A
JP2021150857A JP2020049944A JP2020049944A JP2021150857A JP 2021150857 A JP2021150857 A JP 2021150857A JP 2020049944 A JP2020049944 A JP 2020049944A JP 2020049944 A JP2020049944 A JP 2020049944A JP 2021150857 A JP2021150857 A JP 2021150857A
Authority
JP
Japan
Prior art keywords
subject
image
region
image processing
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020049944A
Other languages
English (en)
Inventor
賢治 小貫
Kenji Konuki
賢治 小貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020049944A priority Critical patent/JP2021150857A/ja
Publication of JP2021150857A publication Critical patent/JP2021150857A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】 画像内の領域毎に画像処理を適用するために一部領域を抽出する際、シーンによっては被写体領域を精度よく抽出することができず、狙いとする画像処理の効果が得られない場合があった。【解決手段】 画像から、予め決められた被写体を検出する検出手段と、前記検出された被写体から、予め決められた第1の条件を満たす第1の被写体を選択する選択手段と、前記第1の被写体を基準として、前記第1の被写体を含む第1の領域と、前記第1の被写体を含まない第2の領域とを抽出する抽出手段と、を有し、前記第1の条件は、予め決められた第1の大きさ以上の大きさを有する前記被写体のうち、最も小さいことを特徴とする。【選択図】 図4

Description

本発明は、画像処理装置及び方法、及び、撮像装置に関し、更に詳しくは、デジタルカメラ等で撮影された画像に対する画像処理技術に関するものである。
従来より、画像の明瞭度や明るさを補正するための画像処理を、画像内の一部の領域に適用する処理が知られている。そのような処理において、処理を適用する一部の領域を抽出するために被写体検出の情報を参照し、例えば顔の大きさに基づいて被写体領域を決定する技術がある。
特許文献1では、検出した人物の顔から基準となる顔を選択し、その大きさに基づいて全ての顔を網羅する人物領域を決定する技術が開示されている。
特開2005−208732号公報
特許文献1に開示されている構成は、人物が含まれる可能性が高い領域を矩形のような大まかな範囲で決定するのに適したものであり、領域毎に画像処理を適用するのに必要な精度で被写体領域を抽出することは困難である。
また、例えば、被写体と背景とで異なる画像処理を行いたい場合に、シーンによっては被写体領域を精度よく抽出することができず、狙いとする画像処理の効果が得られない場合があった。
本発明は上記問題点を鑑みてなされたものであり、画像から被写体領域を抽出する精度を高めることを目的とする。
上記目的を達成するために、本発明の画像処理装置は、画像から、予め決められた被写体を検出する検出手段と、前記検出された被写体から、予め決められた第1の条件を満たす第1の被写体を選択する選択手段と、前記第1の被写体を基準として、前記第1の被写体を含む第1の領域と、前記第1の被写体を含まない第2の領域とを抽出する抽出手段と、を有し、前記第1の条件は、予め決められた第1の大きさ以上の大きさを有する前記被写体のうち、最も小さいことを特徴とする。
本発明によれば、画像から被写体領域を抽出する精度を高めることができる。
本発明の実施形態における撮像装置の構成例を示すブロック図。 実施形態における撮像部の構成例を示す図。 実施形態における入力画像の一例を示す図。 実施形態における処理を示すフローチャート。 実施形態における被写体検出結果の一例を示す図。 実施形態におけるデフォーカスマップの一例を示す図。 実施形態における領域マップの一例を示す図。 実施形態における領域マップの一例を示す図。 実施形態における人型シルエットの生成方法及び領域マップの一例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
本実施形態では、デジタルカメラ等の撮像装置を用いて撮影した画像に対して、各種の画像情報及び距離情報を用いて、領域別にコントラストを補正するユースケースについて述べる。なお、以下の説明では、画像処理装置の一例として撮像装置について説明するが、本実施形態の画像処理装置は撮像装置に限定されるものでは無く、例えばパーソナルコンピュータ(PC)等であってもよい。
図1は、本発明の画像処理装置を撮像装置100に応用した場合の構成例を示すブロック図である。図1において、制御部101は、例えばCPUであり、撮像装置100が備える各ブロックの動作プログラムをROM102より読み出し、RAM103に展開して実行することにより撮像装置100が備える各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
光学系104は、被写体像を撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子であり、光学系104により撮像部105に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号にA/D変換処理を適用し、得られたデジタル画像データをRAM103に出力して記憶させる。
画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整や縮小/拡大の他、ノイズ低減処理や現像処理といった通常の信号処理や、様々な画像処理を適用し、処理した画像を再びRAM103に記憶する。
記録媒体108は着脱可能なメモリカード等であり、RAM103に記憶されている画像処理部107で処理された画像や、A/D変換部106でA/D変換された画像等が、記録画像として記録される。
表示部109は、LCD等の表示デバイスであり、撮像部105で取り込まれた被写体像をスルー表示する等、様々な情報を表示する。
操作部110は、レリーズスイッチを含む複数の操作部材類であり、撮影モードや焦点距離、絞り値、露光時間等の設定の他、オートフォーカスやレリーズ等の操作を指示する。
評価値取得部111は、得られた画像データから、被写体距離やデフォーカス値等の評価値を算出する。
被写体検出部112は、得られた画像データから画像内に特定の被写体が存在するか否かを検出し、存在する場合には被写体の位置(画像内での座標)及び大きさを出力する。特定の被写体としては、人物の顔や体全体、各種動物や乗り物等、種々のものが考えられる。
図2は、図1の撮像部105の画素配列構成を示す図である。図2に示すように、撮像部105には、複数の画素202が二次元的に規則的に配列されている。各画素202は、1つのマイクロレンズ201と一対の光電変換部203,204を含んで構成される。なお、光電変換部203,204の平面形状はこれに限定されるものではなく、他の平面形状や配置にしてもよい。また、各画素202に設けられるフォトダイオードの個数は2つに限定されず、3つ以上(例えば、4つ)であってもよい。
本実施形態においては、二次元的に規則的に配列された光電変換部203,204からそれぞれ信号を読み出す。そして、複数の画素202の光電変換部203から読み出した信号(以下、「A信号」と呼ぶ。)を繋げてA像、複数の画素202の光電変換部204から読み出した信号(以下、「B信号」と呼ぶ。)を繋げてB像とすることで、視差画像であるA像、B像が出力される。また、同じ画素202の光電変換部203,204からそれぞれ出力されたA信号とB信号を加算することで、静止画像用の信号として用いることのできるA+B信号を生成することができ、生成したA+B信号は記録媒体108に記録される。なお、光電変換部203,204からの読み出し方法はこれに限られるものでは無く、例えば、各画素202からA信号とA+B信号を読み出し、A+B信号からA信号を差分することで、B信号を得るようにしてもよい。
撮像部105を図2に示すように構成することで、光学系104の瞳の異なる領域を通過する一対の光束を一対の光学像として結像させて、それらをA像、B像として出力することができる。なお、A像、B像の取得方法は、上記に限られず、種々の方法を採ることができる。例えば、空間的に間隔をあけて設置した複数台のカメラ等の撮像装置により取得された互いに視差を有する画像をA像、B像としてもよい。また、複数の光学系と撮像部とを有する1台のカメラ等の撮像装置により取得された視差画像を、それぞれA像、B像としてもよい。
図3は、撮像装置100により撮像された画像の例を示しており、一例として、主となる被写体として、複数の人物が互いに異なる配置で写っている場合を示している。図3(a)に示す画像300では、人物301,302,303が撮像装置100の近くに横に並んで撮影されている。図3(b)に示す画像310では、撮像装置100から見て手前より人物313,311,312が奥行方向に異なる位置で撮影されている。また、図3(c)に示す画像320では、撮像装置100から離れた位置に居る人物321,322,323,324が撮影されている。
次に、図4のフローチャートを参照して、本実施形態において人物領域及び前景領域を抽出する処理について説明する。また、処理の具体例として図3に示す画像300,310,320を例にとり、画像のサイズが横6000x縦4000ピクセルであるものとして説明する。
S401では、入力画像に含まれる被写体として人物の顔を検出する。具体的な検出方法としては、例えば、特開平10−162118号公報に開示されているような公知の手法により顔を検出し、検出された各顔の画像における座標及び大きさを出力する。
図5は、図3に示す画像300,310,320に対してそれぞれS401の処理を行った例を示したものであり、各顔の位置(矩形の中心座標)及び大きさ(矩形の一辺の長さ)に基づいて、各顔を示す枠500を表している。ここでは検出した顔の大きさを、画像300における人物301では670ピクセル、人物302では700ピクセル、人物303では680ピクセルとする。同様に画像310における人物311では660ピクセル、人物312では610ピクセル、人物313では800ピクセルとする。また、画像320における人物321では320ピクセル、人物322では280ピクセル、人物323では350ピクセル、人物324では120ピクセルとする。
S402では、撮像部105から一対の視差画像であるA像及びB像を取得し、この取得した視差画像を元に、撮影範囲における空間的なデフォーカス値分布を表すデータを出力する。以降の説明では空間的なデフォーカス値分布を表すデータをデフォーカスマップと呼ぶ。デフォーカス値は光学系104が合焦している距離からのピントのずれ量であるため、距離情報の一種である。なお、デフォーカス値を取得する手法については、例えば、特開2008−15754号公報に開示されている手法のように、視差画像間の位相差を算出する方法を用いることができる。
画像300,310,320に対するデフォーカスマップを図6に示す。図6のデフォーカスマップは、デフォーカス値が小さいほど白く(画素値が高くなる)なる連続値のグレースケールで表現されており、画像300において人物302の領域は合焦領域(デフォーカス値がゼロ)を示す灰色で表現されている。画像310においては、人物311の領域に対して、人物312,313の領域は相対的にデフォーカス値が大きくなっている。画像320においては、フォーカスを合わせている人物が遠くにいて被写界深度が深くなっていることから、画像300,310と比較して、人物以外の背景部分のデフォーカス値が小さくなっていることがわかる。
S403では、各画像において検出した顔から、基準とする顔(以下「基準顔」と呼ぶ。)を一つ選択する。選択の方法としては、まず検出した全ての顔のうち、所定の大きさTh1(例えば、Th1=画像の長辺の10%)以上を有するものを選定し、その中から最も小さい顔を基準顔とする。本実施形態に示す例では、画像のサイズが横6000ピクセルであるので、所定の大きさTh1を600ピクセルとして、600ピクセル以上の顔から選択される。
画像300においては人物301、画像310においては人物312が基準顔として選択される。画像320においては全ての人物がTh1に満たない大きさのため、ここでは基準顔の選択を行わない。
S404では、人物領域を抽出するためにデフォーカス値を参照するか否かを判定する。具体的には、S401で検出した全ての顔が所定の大きさTh1より小さい場合にはデフォーカス値を参照せず、一つでもTh1以上の大きさを有する顔を検出した場合にはデフォーカス値を参照する。これは、全ての顔が小さく写っている、すなわち人物が撮像装置100から遠くにいる場合、パンフォーカスとなり画像全体的にデフォーカス値が小さくなりやすいことから、デフォーカス値に基づいて領域を分離することが困難と考えられるためである。本実施形態では、画像300,310の場合はデフォーカス値を参照すると判定してS405へ、画像320の場合は全ての顔がTh1に満たないためデフォーカス値を参照しないと判定してS408へ処理を進める。
なお判定の方法としてはこれに限らず、撮影条件等各種の画像情報を用いるようにしてもよい。例えば、F値が所定以上絞り込まれている場合には同様に深度が深くなりデフォーカス値が小さくなりやすく、ISO感度が高い場合にはA像とB像の視差とノイズとを分離することが困難となり、デフォーカス値の精度が不足しやすくなることが考えられる。従って、F値やISO感度が所定以上の場合にはデフォーカス値を参照しないようにしてもよい。
S405では、基準顔のデフォーカス値を算出する。具体的には、S402で生成したデフォーカスマップにおいて、S404で選択した基準顔の顔検出枠におけるデフォーカス値の平均値Def_baseを算出する。
S406では、人物領域として抽出するためのデフォーカス値の範囲を決定する。範囲の決め方としては、S405で算出した基準顔のデフォーカス値Def_baseに基づいて、基準顔と同一の距離として扱うデフォーカス値の上限値及び下限値を算出する。下限値、すなわち基準顔に対して奥側の閾値はDef_base−5%とし、上限値すなわち基準顔に対して手前側の閾値はDef_base+5%とする。従って、デフォーカス値がDef_base±5%である領域を人物領域とする。
なお人物領域を示すデフォーカス値の範囲の決定方法は、上述したような顔領域のデフォーカスの平均値に基づいて算出した閾値と比較する手法に限らず、他の評価値に基づいて算出してもよい。例えば、デフォーカスのヒストグラムを生成し、基準顔のデフォーカス平均値からカウントを加算しながら範囲を広げていき、カウント積算値が所定の割合(例えば全カウント数の5%)に達した時点での値を上限値及び下限値とする、といった統計を利用した方法等、種々の方法で可能である。
S407では、S406で算出した閾値に基づいて人物領域及び前景領域を示す領域マップを生成する。まずS402で生成したデフォーカスマップにおいて、デフォーカス値がS406で算出した範囲内である領域を人物領域として抽出し、さらに手前側の閾値よりも大きい領域を前景領域として抽出し、2値化したものを生成する。
なお、S406では、大きさがTh1に満たない顔であっても、デフォーカス値がS406で算出した範囲内であれば、人物領域として抽出される。これは基準顔とほぼ同等の距離(本実施形態で言えば、デフォーカス値がDef_base±5%の範囲内)にいる顔は、基準顔と関係のない他人ではなく、基準顔に関係する人物の顔であると推測されるからである。この考え方は、基準顔がTh1にほぼ等しいような場合に重要となる。例えば、Th1をわずかに超える大きさの顔Aと、Th1をわずかに超えない大きさの顔Bとが並んでいる画像が有り得る。このような場合、顔Aは人物領域として補正されず、顔Bは背景領域として補正されることになり、不自然な画像となってしまう。
そこで本実施形態では、基準顔から一定範囲内の距離に存在する顔を、人物領域となるようにする。先に挙げた例で言えば、顔Bは人物領域となり、補正されないことになる。一方で顔Bは同じ大きさで存在するが、顔Aは同じ大きさに存在しない(顔Bが基準画像から所定の距離範囲内にない場合)、顔Bは人物領域とはならない。これは、顔BはTh1をわずかに超えない大きさであるためである。
画像300に対してS407で抽出した結果を図7に示す。画像300では、人物301,302,303がほぼ等距離に居てデフォーカス値も互いに近い値を持っていることから、図7に示すように、3人の人物が全て人物領域701として抽出される。
図8(a)は、画像310に対して抽出された人物領域を示したものである。基準顔として選択された人物312及びそれに近い距離に居る人物311が人物領域として抽出され、最も手前側にいる人物313は人物312から離れた距離に居ることから、人物領域として抽出されない。図8(b)は、画像310の前景領域を抽出した結果を示したものであり、S406で算出した範囲よりも大きい値、すなわち手前にいる人物313が抽出されている。人物領域として抽出した領域710と、前景領域として抽出した領域711とを統合することで、領域マップを生成する。図8(c)はその結果を示したものであり、3人の人物が全て抽出されていることがわかる。なお、領域マップがより被写体の輪郭に合うように、例えば特開2017−11652号公報で述べられているような画像300,310の各画素値を参照した整形処理を行ってもよい。
一方、S408では、検出された全ての顔に対して主要な被写体の顔であるか否かを判定する。判定の方法としては、まず検出された顔の中から所定の大きさTh2(例えば、Th2=画像の長辺の5%)以上を有するものを選択し、その中から最も小さい顔を基準顔とする。したがって、画像320の場合、大きさが6000x0.05=300ピクセル以上の顔のうち、最も小さい顔である人物321が基準顔として選択される。さらに基準顔として選択した顔の大きさに所定の比率(例えば0.8)を乗算した値である300x0.8=240ピクセルを大きさの閾値として算出し、算出した閾値以上の大きさを持つ顔のみを主要な顔と判定する。
基準顔である人物321及びそれよりも顔の大きい人物323は主要な顔として判定され、人物321よりも顔の小さい人物322も、顔の大きさが閾値である240ピクセル以上であるため主要な顔として判定される。一方で人物324は閾値を下回るほど顔が小さいため主要な顔として判定されないことになる。これは、固定値であるTh2を閾値として判定に用いると、顔の大きさがわずかに異なる複数の人物が存在する場合に判定結果がまばらになったり、Th2を小さくしすぎると本来は主要でないような人物まで主要と判定したりすることを避けることが目的である。
S409では、S408の判定結果に基づいて領域マップを生成する。具体的には、まず主要な顔と判定した各々の人物に対して簡易的な人物モデルのシルエットを割り当てる。図9は、S409におけるシルエットの割り当ての一例を示したものである。図9(a)は、入力画像800及び検出された顔を示す枠801を示す図であり、図9(b)は、検出した顔の位置、大きさに基づいて、人物が存在すると想定される領域に対して、顔部分902と胴体部分903から成るシルエット画像810を生成した例を示す図である。。なお、参照する情報としては顔検出結果に限らず、人物の体全体を含めた領域の検出結果であってもよい。
図9(c)は、上記処理を画像320に対して行った結果を示す図であり、S408で検出した3人分の主要顔に対して、人物シルエットが生成されている。なお、画像320に対して、例えば特開2017−11652号公報で述べられているような、各画素値を参照した整形処理を行うことで、さらに領域マップがより被写体の輪郭に合うようにすることができ、これが最終的な領域マップとなる。得られた領域マップの例を図9(d)に示す。
S410では、S407あるいはS409で生成した領域マップを用いて一部領域のみコントラストが補正された画像を生成する。ここで一部領域とは、画像300では、図7に示す生成した領域マップにおいて、人物が含まれない背景領域702とする。具体的な補正方法としては、まず画像300全体のコントラストを補正した画像を生成する。コントラストの補正方法としては、例えば特開2019−28537号公報で述べられているような低周波領域の明るさを変えることなく局所的なコントラストのみを補正する手法等、既存の技術を用いて良い。これをコントラストの補正をせずに現像した画像と、図7に示す領域マップに基づいて、人物領域701ではコントラストの補正をしていない画像、背景領域ではコントラストを補正した画像を選択することにより、合成を行う。この際、両者を重みづけ加算してもよい。また、重みづけ加算の重みは画像内の位置に応じて変化させてもよい。例えば、領域の境界部では補正なし画像と補正した画像の重みを同等とし、領域の境界から離れるにつれて人物領域701では補正をしていない画像の、背景領域では補正した画像の重みを増やすようにしてもよい。これにより、領域マップにおける背景領域702のみコントラストが補正された画像を生成することが可能となる。画像310,320についても同様に領域マップに基づいて処理を行う。
このように、撮影した画像に対して、被写体検出情報や距離情報を用いて人物領域を抽出して領域マップを生成し、領域別に階調処理を行うと、処理を終了する。
上記の通り本実施形態によれば、複数の被写体が存在する場合に、予め決められた大きさを有する顔の中で最小の顔を基準として主要な被写体のみを含む領域を抽出することで、領域毎の画像処理において所望とする効果を得ることが可能となる。
なお、本実施形態では、図2を参照して説明したように、撮像光学系の瞳の異なる領域から到来する光束が生ずる複数の被写体像の位相差に基づいて距離情報を生成する構成について説明したが、他の構成や手段を代用あるいは併用しても良い。例えば、TOF(Time Of Flight)カメラや超音波により距離が計測可能な構成とすることで、模様の変化が乏しい被写体に対する測距性能を向上することが可能となる。
また、本実施形態では、主被写体が人物で背景のコントラストを補正する場合について述べたが、補正する対象の領域や補正の方法はこれに限らず他の組み合わせであっても良い。例えば主被写体としては動物や建造物、乗り物等でも良く、該被写体を検出する技術を用いることで本発明を適用することが可能である。
また、本実施形態では背景領域を補正し、人物領域は補正しない場合について説明したが、これには限定されず、分割(抽出)した領域情報を活用した種々の処理に応用することが可能である。例えば本実施形態のように領域分割をした後、人物領域を補正し背景領域を補正しない処理(例えば肌領域のコントラストを下げて美肌効果を付与する処理)に用いることも可能である。
また、画像処理はコントラストの補正に限らず、明るさや色相、彩度、シャープネス等を補正するようにしても良い。例えば人物領域のみに対して明るさを補正することによって、逆光等で暗くなった人物の顔を撮影後に調整することが可能となる。
<他の実施形態>
なお、本発明は、複数の機器から構成されるシステムに適用しても、一つの機器からなる装置に適用してもよい。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:撮像装置、101:制御部、102:ROM、103:RAM、104:光学系、105:撮像部、106:A/D変換部、107:画像処理部、108:記録媒体、109:表示部、110:操作部、111:評価値取得部、112:被写体検出部、201:マイクロレンズ、202:画素、203,204:光電変換部

Claims (14)

  1. 画像から、予め決められた被写体を検出する検出手段と、
    前記検出された被写体から、予め決められた第1の条件を満たす第1の被写体を選択する選択手段と、
    前記第1の被写体を基準として、前記第1の被写体を含む第1の領域と、前記第1の被写体を含まない第2の領域とを抽出する抽出手段と、を有し、
    前記第1の条件は、予め決められた第1の大きさ以上の大きさを有する前記被写体のうち、最も小さいことを特徴とする画像処理装置。
  2. 前記画像を構成する複数の領域それぞれについて、被写体距離を示す距離情報を取得する取得手段を備え、
    前記抽出手段は、前記画像が予め決められた第2の条件を満たす場合に、前記距離情報に基づいて、前記画像から、前記第1の被写体から予め決められた第1の範囲内の距離を有する領域及び前記被写体よりも近い領域を前記第1の領域として抽出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出手段は、前記第1の被写体から前記第1の範囲の距離よりも遠い領域を前記第2の領域として抽出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記第2の条件は、前記検出された被写体のうち少なくとも1つが予め決められた大きさよりも大きいこと、前記画像を撮影した時のF値が予め決められた値より絞り込まれていること、前記画像を撮影した時のISO感度が予め決められた感度よりも高いこと、の少なくともいずれかを含むことを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記抽出手段は、前記画像が前記第2の条件を満たさない場合に、前記検出された被写体の大きさに基づいて前記第1の領域を抽出することを特徴とする請求項4に記載の画像処理装置。
  6. 前記抽出手段は、
    前記検出された被写体のうち、前記第1の大きさよりも小さい第2の大きさ以上の大きさを有する被写体のうち、最も小さい第2の被写体を検出し、
    前記検出された被写体のうち、前記第2の被写体と、前記第2の被写体の大きさから予め決められた範囲内にある大きさの被写体の領域を前記第1の領域として抽出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記第2の領域は、前記第1の領域を除く領域であることを特徴とする請求項5または6に記載の画像処理装置。
  8. 前記被写体は、顔、人物、動物、建造物、乗り物のいずれかであることを特徴とする請求項1乃至7のいずれかに記載の画像処理装置。
  9. 前記第1の領域または前記第2の領域に、画像処理を行う画像処理手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記第1の領域及び前記第2の領域に、互いに異なる画像処理を行う画像処理手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  11. 前記画像処理は、明るさ、コントラスト、色相、彩度、シャープネスの少なくとも一つを含むことを特徴とする請求項9または10に記載の画像処理装置。
  12. 画像を撮影する撮像手段と、
    請求項1乃至11のいずれか1項に記載の画像処理装置と、を有し、
    前記画像処理装置は、前記撮像手段により撮影された画像を処理することを特徴とする撮像装置。
  13. 検出手段が、画像から、予め決められた被写体を検出する検出工程と、
    選択手段が、前記検出された被写体から、予め決められた第1の条件を満たす第1の被写体を選択する選択工程と、
    抽出手段が、前記第1の被写体を基準として、前記第1の被写体を含む第1の領域と、前記第1の被写体を含まない第2の領域とを抽出する抽出工程と、を有し、
    前記第1の条件は、予め決められた第1の大きさ以上の大きさを有する前記被写体のうち、最も小さいことを特徴とする画像処理方法。
  14. コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2020049944A 2020-03-19 2020-03-19 画像処理装置及び方法、及び、撮像装置 Pending JP2021150857A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049944A JP2021150857A (ja) 2020-03-19 2020-03-19 画像処理装置及び方法、及び、撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049944A JP2021150857A (ja) 2020-03-19 2020-03-19 画像処理装置及び方法、及び、撮像装置

Publications (1)

Publication Number Publication Date
JP2021150857A true JP2021150857A (ja) 2021-09-27

Family

ID=77849570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049944A Pending JP2021150857A (ja) 2020-03-19 2020-03-19 画像処理装置及び方法、及び、撮像装置

Country Status (1)

Country Link
JP (1) JP2021150857A (ja)

Similar Documents

Publication Publication Date Title
US10997696B2 (en) Image processing method, apparatus and device
JP5932476B2 (ja) 画像処理装置、撮像装置、距離計測方法および距離計測プログラム
CN109255810B (zh) 图像处理装置及图像处理方法
JP6489932B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5901614B6 (ja) 画像処理装置および画像処理方法
US6370262B1 (en) Information processing apparatus and remote apparatus for object, using distance measuring apparatus
JP6833415B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11080873B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6624785B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
US10410329B2 (en) Image processing apparatus, image processing method, and computer readable storage medium
JP6514504B2 (ja) 画像処理装置およびその制御方法、ならびにプログラム
JP2021150857A (ja) 画像処理装置及び方法、及び、撮像装置
JP7373297B2 (ja) 画像処理装置、画像処理方法及びプログラム
TWI468772B (zh) 影像拍攝設備及方法
JP6063680B2 (ja) 画像生成装置、画像生成方法、撮像装置、および撮像方法
JP6949494B2 (ja) 画像処理装置および画像処理方法、撮像装置、プログラム
JP7437915B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6554009B2 (ja) 画像処理装置、その制御方法、プログラム及び記録媒体
JP7297566B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2018152095A (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP7451264B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6685550B2 (ja) オートフォーカス装置及びオートフォーカス用プログラム
JP2023026185A (ja) 撮像装置、制御方法、プログラム及び記憶媒体
JP6558978B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021164066A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240510