JP2023071422A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2023071422A JP2023071422A JP2021184192A JP2021184192A JP2023071422A JP 2023071422 A JP2023071422 A JP 2023071422A JP 2021184192 A JP2021184192 A JP 2021184192A JP 2021184192 A JP2021184192 A JP 2021184192A JP 2023071422 A JP2023071422 A JP 2023071422A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image processing
- unit
- image data
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 69
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000605 extraction Methods 0.000 claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 239000000284 extract Substances 0.000 claims abstract description 25
- 238000003384 imaging method Methods 0.000 claims description 48
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 30
- 230000003287 optical effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】被写体間の重なり具合を判定すること。【解決手段】画像処理装置は、被写体を含む画像データから第1被写体を抽出する抽出部と、前記画像データ内の複数位置における奥行き情報を検出する検出部と、前記奥行き情報を検出した、前記第1被写体と重なる所定位置と前記第1被写体の周辺の所定位置のそれぞれの位置における前記奥行き情報、及び、前記それぞれの位置の接近度合いに基づいて、前記第1被写体と他の被写体との重なり状態を判定する判定部と、を備える。【選択図】図2
Description
本発明は、画像処理装置および画像処理方法に関する。
下記特許文献1の撮像装置は、集合写真を撮影する撮像装置を開示する。
第1開示技術の画像処理装置は、被写体を含む画像データから第1被写体を抽出する抽出部と、前記画像データ内の複数位置における奥行き情報を検出する検出部と、前記奥行き情報を検出した、前記第1被写体と重なる所定位置と前記第1被写体の周辺の所定位置のそれぞれの位置における前記奥行き情報、及び、前記それぞれの位置の接近度合いに基づいて、前記第1被写体と他の被写体との重なり状態を判定する判定部と、を備える。
第2開示技術の画像処理装置は、被写体を含む画像データに関する顕著性マップ及び奥行き情報に基づいて、第1被写体及び第2被写体を抽出する抽出部と、前記第1被写体と前記第2被写体に関する奥行き情報、及び、前記第1被写体と前記第2被写体の接近度合いに基づいて、前記第1被写体と前記第2被写体との重なり状態を判定する判定部と、を備える。
第3開示技術の画像処理方法は、画像処理装置が、被写体を含む画像データから第1被写体を抽出する抽出処理と、前記画像データ内の複数位置における奥行き情報を検出する検出処理と、前記奥行き情報を検出した、前記第1被写体と重なる所定位置と前記第1被写体の周辺の所定位置のそれぞれの位置における前記奥行き情報、及び、前記それぞれの位置の接近度合いに基づいて、前記第1被写体と他の被写体との重なり状態を判定する判定処理と、を実行する。
第4開示技術の画像処理方法は、画像処理装置が、被写体を含む画像データに関する顕著性マップ及び奥行き情報に基づいて、第1被写体及び第2被写体を抽出する抽出処理と、前記第1被写体と前記第2被写体に関する奥行き情報、及び、前記第1被写体と前記第2被写体の接近度合いに基づいて、前記第1被写体と前記第2被写体との重なり状態を判定する判定処理と、を実行する。
実施例1は、主要被写体に隣接し、かつ、主要被写体よりも手前にピントが合う(いわゆる、前ピン)被写体を手前被り被写体と判定して、主要被写体の推薦度を示すスコアを算出する例である。
<撮像装置のハードウェア構成例>
図1は、実施例1にかかる撮像装置のハードウェア構成例を示すブロック図である。撮像装置100は、静止画または動画撮影可能な装置であり、具体的には、たとえば、デジタルカメラ、デジタルビデオカメラ、スマートフォン、タブレット、パーソナルコンピュータ、ゲーム機である。図1では、撮像装置の一例としてデジタルカメラを例に挙げて説明する。
図1は、実施例1にかかる撮像装置のハードウェア構成例を示すブロック図である。撮像装置100は、静止画または動画撮影可能な装置であり、具体的には、たとえば、デジタルカメラ、デジタルビデオカメラ、スマートフォン、タブレット、パーソナルコンピュータ、ゲーム機である。図1では、撮像装置の一例としてデジタルカメラを例に挙げて説明する。
撮像装置100は、プロセッサ101と、記憶デバイス102と、駆動部103と、光学系104と、撮像素子105と、AFE(Analog Front End)106と、LSI(Large Scale Integration)107と、操作デバイス108と、センサ109と、表示デバイス110と、通信IF(Interface)111と、バス112と、を有する。プロセッサ101、記憶デバイス102、駆動部103、LSI107、操作デバイス108、センサ109、表示デバイス110、および通信IF111は、バス112に接続される。
プロセッサ101は、撮像装置100を制御する。記憶デバイス102は、プロセッサ101の作業エリアとなる。また、記憶デバイス102は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。記憶デバイス102としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。記憶デバイス102は、撮像装置100に複数実装されてもよく、そのうちの少なくとも1つは、撮像装置100に対し着脱自在でもよい。
駆動部103は、光学系104を駆動制御する。駆動部103は、駆動回路103aと駆動源103bとを有する。駆動回路103aは、プロセッサ101からの指示により駆動源103bを制御する。駆動源103bは、たとえば、モータであり、駆動回路103aの制御により、光学系104内のズーミングレンズ141bおよびフォーカシングレンズ141cを光軸方向に移動させたり、絞り142を開閉制御したりする。
光学系104は、光軸方向に配列された複数のレンズ(レンズ141a、ズーミングレンズ141b、およびフォーカシングレンズ141c)と、絞り142と、を含む。光学系104は、被写体光を集光し、撮像素子105に出射する。
撮像素子105は、光学系104からの被写体光を受光して電気信号に変換する。撮像素子105は、たとえば、XYアドレス方式の固体撮像素子(たとえば、CMOS(Complementary Metal-Oxide Semiconductor))であってもよく、順次走査方式の固体撮像素子(たとえば、CCD(Charge Coupled Device))であってもよい。
撮像素子105の受光面には、複数の受光素子(画素)がマトリクス状に配列されている。そして、撮像素子105の画素には、それぞれが異なる色成分の光を透過させる複数種類のカラーフィルタが所定の色配列(たとえば、ベイヤ配列)に従って配置される。そのため、撮像素子105の各画素は、カラーフィルタでの色分解によって各色成分に対応するアナログの電気信号を出力する。
AFE106は、撮像素子105からのアナログの電気信号に対して信号処理を施すアナログフロントエンド回路である。AFE106は、電気信号のゲイン調整、アナログ信号処理(相関二重サンプリング、黒レベル補正など)、A/D変換処理、デジタル信号処理(欠陥画素補正など)を順次実行してRAW画像データを生成し、LSIに出力する。上述した駆動部103、光学系104、撮像素子105、およびAFE106は、撮像部120を構成する。
LSI107は、AFE106からのRAW画像データについて、色補間、ホワイトバランス調整、輪郭強調、ガンマ補正、階調変換などの画像処理や符号化処理、復号処理、圧縮伸張処理など、特定の処理を実行する集積回路である。LSI107は、具体的には、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などのPLD(Programmable Logic Device)によって実現してもよい。
操作デバイス108は、コマンドやデータを入力する。操作デバイス108としては、たとえば、レリーズボタンを含む各種ボタン、スイッチ、ダイヤル、タッチパネルがある。センサ109は、情報を検出するデバイスであり、たとえば、AF(Automatic Focus)センサ、AE(Automatic Exposure)センサ、ジャイロセンサ、加速度センサ、温度センサ、深度センサなどがある。AFセンサは、たとえば再結像位相差方式のAFセンサである。また、AFセンサを像面位相差検出式のAFセンサとすることもでき、プロセッサ等(図示しない)での処理により焦点検出を可能とする。表示デバイス110は、画像データや設定画面を表示する。表示デバイス110には、撮像装置100の背面にある背面モニタと、電子ビューファインダと、がある。通信IF111は、ネットワークと接続し、データを送受信する。
なお、プロセッサ101、記憶デバイス102、LSI107、操作デバイス108、センサ109、表示デバイス110、通信IF111、およびバス112を、画像処理部130と称す。また、撮像装置100から撮像部120を除いた画像処理部130からなる装置を、画像処理装置と称す。
<画像処理装置の機能的構成例>
図2は、実施例1にかかる画像処理装置の機能的構成例を示すブロック図である。図3は、実施例1にかかる画像処理装置による画像処理手順例を示すフローチャートである。画像処理装置200は、たとえば、図1に示した画像処理部130により構成され、取得部201と、抽出部202と、検出部203と、判定部204と、算出部205と、出力部206と、を有する。取得部201、抽出部202、検出部203、判定部204、算出部205、および出力部206は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。
図2は、実施例1にかかる画像処理装置の機能的構成例を示すブロック図である。図3は、実施例1にかかる画像処理装置による画像処理手順例を示すフローチャートである。画像処理装置200は、たとえば、図1に示した画像処理部130により構成され、取得部201と、抽出部202と、検出部203と、判定部204と、算出部205と、出力部206と、を有する。取得部201、抽出部202、検出部203、判定部204、算出部205、および出力部206は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。
図3において、画像処理装置200は、取得部201による画像データの取得(ステップS301)、抽出部202による被写体抽出(ステップS302)、検出部203による奥行き情報の検出(ステップS303)、判定部204による重なり状態の判定(ステップS304)、算出部205によるスコアの算出(ステップS305)、および出力部206による結果出力(ステップS306)を実行する。
図2に戻り、取得部201は、被写体を含む画像データを取得する。具体的には、たとえば、取得部201は、被写体を含む画像データを、撮像部120による静止画の撮影により取得したり、撮影前のスルー画として取得したり、または、記憶デバイス102から取得したりする。なお、画像データに含まれ被写体は1つであっても複数であってもよい。また、取得部201は、センサ109の一例である深度センサにより、スルー画である画像データのデプスマップを取得する。取得したデプスマップは、画像データに関連付けて記憶デバイス102に格納される。
また、取得部201は、取得した画像データにおいて顔検出を実行し、検出された顔画像の数および画像データ内の位置や顔の表情を含む顔検出情報を画像データから取得してもよい。取得した顔検出情報は、画像データに関連付けて記憶デバイス102に格納される。
図4は、撮像部120によって取得された画像データの一例を示す説明図である。図4は、表示デバイス110に表示された画像データ400を示している。なお、表示デバイス110の画面中央にある105個の矩形は、AF測距点410である。画像データ400は、人物を示す被写体401~403を含む。取得部201は、画像データ400が撮像された場合、AF測距点410をフォーカス情報として記憶デバイス102に格納する。
図5は、デフォーカス値プロットグラフの一例を示す説明図である。デフォーカス値プロットグラフ500は、AF測距点410ごとにデフォーカス値をプロットしたグラフでありデフォーカスマップの一例である。横軸がAF測距点410を一意に特定するAF測距点番号であり、縦軸がデフォーカス値である。プロット501は、被写体401のデフォーカス値をあらわし、プロット502とプロット503は、それぞれ被写体402と被写体403のデフォーカス値をあらわす。プロット502とプロット503は、デフォーカス値がマイナスであることから、被写体402と被写体403は、被写体401に対して手前側に位置していることが分かる。
図6は、図4に示した画像データ400から得られたデプスマップの一例を示す説明図である。図5では、説明の便宜上、矩形で示した複数の画素領域610の集合である画素領域群において、被写体401~403および背景を濃淡でデプスマップ600を示しているが、デプスマップ600は、各画素領域610の深度値(濃いほど浅く、薄いほど深い)により構成される。画素領域610は、1以上の画素の集合である。深度値は、たとえば、深度センサの前方の対物レンズまたはセンサ面から人物までの距離である。
なお、図6をデプスマップ600として説明したが、取得部201は、画像データ400からデフォーカスマップを取得してもよい。デフォーカスマップの場合、AF測距点410ごとのデフォーカス値を示すマップとなる。取得部201は、デフォーカスマップからデフォーカス値プロットグラフを取得してもよい。また、取得部201は、デフォーカスマップを用いてデプスマップを作成してもよい。
図2に戻り、取得部201は、画像データ400の顕著度の分布を示す顕著性マップを画像データ400から取得してもよい。顕著性マップは、人の知識や経験に寄らない汎用的な注視点を算出する手法である。具体的には、たとえば、取得部201は、カラーの画像データ400を色、輝度、エッジ方向の3つの特徴に分解し、それぞれのガウシアンピラミッドを生成し、これら3つのガウシアンピラミッドを用いてcenter-surround演算を行うことで特徴マップを生成した後、すべての特徴マップを正規化し統合することで顕著性マップを生成する。顕著性マップでは、周辺領域と性質の異なる領域が、「顕著性が高い(注意を引く)領域」として抽出される。
図7は、顕著性マップの一例を示す説明図である。実施例1の顕著性マップ700は、被写体401~403ごとに輪郭を検出する。これにより、たとえば、被写体401とボケ量が大きい被写体402との境界を特定し、被写体401を示すオブジェクトと被写体402を示すオブジェクトとを分離することができる。
図2に戻り、抽出部202は、取得部201によって取得された複数の被写体401~403を含む画像データ400から主要被写体を抽出する。ここでは、被写体401を主要被写体とする。具体的には、抽出部202は、画像データ400内のオブジェクトの姿勢に基づいて、主要被写体401を抽出する。たとえば、抽出部202は、デプスマップ600を参照してオブジェクトを抽出する。
たとえば、オブジェクトとして人物を抽出する場合、抽出部202は、深度値により領域抽出を行い、人物として認識できる形状のオブジェクトを特定し、人物のオブジェクト(被写体401~403)を抽出する。また、抽出部202は、人物として抽出されたオブジェクトの各々について、複数(たとえば、18か所)の骨格点となるノードと、ノード間を接続するリンクと、の組み合わせである骨格情報を抽出する。
抽出部202は、たとえば、オブジェクトの領域における各所の深度値とオブジェクトの形状の特徴量とに基づいて、オブジェクトの領域に写る人物の実空間上の部位(左右の手、頭部、首、左右の肩、左右の肘、左右の膝、左右の足等)を特定し、各部位における中心位置に骨格点を設定する。
また、抽出部202は、たとえば、記憶デバイス102に記憶された特徴量辞書を用いて、オブジェクトの領域から決定される特徴量を、当該特徴量辞書に登録されている各部位の特徴量と照合することにより、オブジェクトの領域における人物の各部位を特定し、各部位における中心位置に骨格点を設定してもよい。なお、骨格点は、たとえば、左右の手、頭部、首、左右の肩、左右の肘、左右の膝、左右の足である。なお、骨格点の数は、オブジェクトの姿勢や範囲により増減する。
また、抽出部202は、人物のオブジェクトを抽出する場合、取得部201によって取得された顔検出情報を用いて、顔検出された画像を含むオブジェクトを人物のオブジェクトとして抽出してもよい。
また、抽出部202は、画像データ400から得られた顕著性マップ700に基づいて、主要被写体401を人物のオブジェクトとして抽出してもよい。
また、抽出部202は、画像データ400において、被写体401~403の焦点検出のために設定された複数のAF測距点410のうち、手動(操作デバイス108のユーザ操作)で選択されたAF測距点410と重なるオブジェクトを、主要被写体401として抽出してもよい。
同様に、抽出部202は、画像データ400において、被写体401~403の焦点検出のために設定された複数のAF測距点410のうち、自動(オートフォーカス機能)で選択されたAF測距点410と重なるオブジェクトを、主要被写体として抽出してもよい。この場合、抽出部202は、AF測距点410を包含する個数が最大で、且つデフォーカス量の小さい被写体を主要被写体として抽出してもよい。図4の例では、被写体401が主要被写体として抽出される。
検出部203は、画像データ400内の複数位置における奥行き情報を検出する。奥行き情報とは、デプスマップ600から得られる画素領域610ごとの深度値、または、デフォーカスマップ(またはデフォーカス値プロットグラフ500)において、AF測距点410のうち、焦点検出したAF測距点410ごとのデフォーカス値である。なお、検出部203は、深度値として、たとえば、タイムオブフライト法(Time Of Flight法)を用いて、画像データ400内の複数位置における距離を測定し、奥行情報を取得してもよい。
判定部204は、奥行き情報を検出した、主要被写体401と重なる所定位置と主要被写体401周辺の所定位置のそれぞれの位置における奥行き情報、および、それぞれの位置の接近度合いに基づいて、主要被写体401と他の被写体との重なり状態を判定する。重なり状態の判定とは、たとえば、主要被写体が他の被写体と重なっているか否かの判定である。また、判定部204は、主要被写体が他の被写体と重なっている場合には、重なり具合を検出してもよい。
所定位置とは、デプスマップ600を用いる場合は画素領域610であり、デフォーカスマップを用いる場合はAF測距点410である。したがって、所定位置の奥行き情報とは、デプスマップ600を用いる場合は画素領域610の深度値であり、デフォーカスマップを用いる場合はAF測距点410のデフォーカス値となる。奥行き情報により、被写体の奥行き方向の位置が特定される。
主要被写体401と重なる所定位置とは、複数の画素領域610またはAF測距点410のうち、主要被写体401に包含されている画素領域610またはAF測距点410である。また、主要被写体401周辺の所定位置とは、たとえば、主要被写体401の輪郭と重なる画素領域610またはAF測距点410と隣接する主要被写体401外の画素領域610またはAF測距点410である。
接近度合いとは、主要被写体401と重なる所定位置と、主要被写体401周辺の所定位置と、により決定される。具体的には、たとえば、判定部204は、主要被写体401の輪郭と重なる所定位置ごとに、主要被写体401周辺に存在するオブジェクトの輪郭と重なる所定位置との最短距離を検出する。距離は、たとえば、マンハッタン距離(画素領域610またはAF測距点410の数)である。AF測距点410の場合を例に挙げる。
図8は、AF測距点410を用いた接近度合い判定例を示す説明図である。図8では、主要被写体401と被写体402との接近度合い判定例を示す。主要被写体401の輪郭と重なるAF測距点410をドットを施したAF測距点411とし、被写体402の輪郭と重なるAF測距点410をハッチングを施したAF測距点412とする。また、被写体403の輪郭と重なるAF測距点410をハッチングを施したAF測距点413とする。なお、主要被写体401および被写体402の両方を含むAF測距点410については、面積が大きい方の被写体に属するものとする。
AF測距点411の各々とAF測距点412の各々との最短距離は、それぞれ1である。判定部は、最短距離の統計値(たとえば、平均値、最大値、最小値、最頻値、または中央値)を主要被写体401と被写体402との重なり状態を示す値として算出する。判定部は、重なり状態を示す値がしきい値以下であれば、主要被写体401よりも手前側に位置する被写体402を、主要被写体401の手前被り被写体であると判定する。しきい値が、たとえば、「2」であるとすると、被写体402は、主要被写体401の手前被り被写体となる。
一方、AF測距点411とAF測距点413との最短距離は、6である。したがって、判定部204は、主要被写体401よりも手前側に位置する被写体403を、主要被写体401の手前被り被写体でないと判定する。なお、所定位置が画素領域610であっても同様である。
なお、判定部204は、主要被写体401の輪郭と重なる所定位置の周辺(主要被写体の外側)にあるAF測距点411の中から、所定位置に最も近く、且つ、所定位置の手前に位置するAF測距点411を検出し、所定位置とのマンハッタン距離を算出することにより主要被写体の重なり状態を判定してもよい。
また、判定部204は、主要被写体401の輪郭と重なる所定位置から主要被写体の外側における所定距離以内(たとえば、「2」以内)にあるAF測距点411の奥行情報を取得し、主要被写体の重なり状態を判定してもよい。たとえば、重なり状態を示すしきい値が「3」である場合に、所定距離が「2」以内において、所定位置より手前に位置するAF測距点411を検出しなかったときに、判定部204は、主要被写体401は手前被り被写体ではないと判定することができる。
このように、重なり状態を示す値が小さいほど主要被写体401の周辺の被写体402は手前被り被写体と判定される可能性が高くなり、重なり状態を示す値が大きいほど主要被写体401の周辺の被写体403は手前被り被写体と判定されない可能性が高くなる。なお、実施例1 の一例では、必ずしも被写体402及び被写体403を他の被写体として認識して検出する必要がない。
すなわち、被写体402及び被写体403を検出しなくても、判定部204は、主要被写体401と重なる所定位置と主要被写体401周辺の所定位置のそれぞれの位置における奥行き情報、および、それぞれの位置の接近度合いに基づいて、主要被写体401と他の被写体との重なり状態を判定できる。
このため、重なり状態の判定は、主要被写体が何かしらの物体と重なっているかどうかの判定であってもよい。さらに、主要被写体が他の被写体(物体)と重なっていると判定した場合、画像データの表示部に、主要被写体が他の被写体と重なっていることをオブジェクト(たとえば、文字列や丸印等)で表示してもよい。また、この場合に、他の被写体と重なっている主要被写体に重畳してオブジェクトを表示する等してもよい。
なお、判定部204は、主要被写体401の骨格情報を用いて、近接度合いを判定してもよい。具体的には、たとえば、主要被写体401の本来あるべき骨格点が欠落しており、かつ、その骨格点が配置されるべき位置が被写体402に重なっていれば、判定部204は、被写体402は主要被写体401の手前被り被写体であると判定してもよい。
図4の例では、主要被写体401の右手の骨格点が欠落しており、かつ、その骨格点が配置されるべき位置が被写体402の頭部である。判定部204は、主要被写体401の右手の骨格点が配置されるべき位置を、主要被写体401の右腕の骨格点を示すノードおよびリンクによって推定する。
推定結果の位置が被写体402と重なっていれば、判定部204は、被写体402は主要被写体401の手前被り被写体であると判定する。また、判定部204は、推定結果の位置に、主要被写体よりも手前にあるAF測距点412が検出された場合、被写体402は主要被写体401の手前被り被写体を判定してもよい。
算出部205は、抽出部202が抽出した被写体ごとに推薦度を示すスコアを算出する。具体的には、算出部205は、判定部が判定した手前被り被写体の有無および重なり状態を示す値に応じた手前被りスコアを、推薦度の高さを示すスコアを算出する。
たとえば、算出部205は、判定部204によって手前被り被写体が存在しないと判定された場合、その被写体は手前被り被写体により隠ぺいされる領域が存在しないため、スコアを高くする。一方、算出部205は、判定部204によって手前被り被写体が存在すると判定された場合、その被写体は手前被り被写体により隠ぺいされる領域が存在するため、スコアを低くする。
図4および図8の主要被写体401の場合、主要被写体401には、手前被り被写体として被写体402が存在するため、被写体402が存在しない場合に比べてスコアが低くなる。また、算出部205は、主要被写体401の骨格情報を用いて、手前被りが発生している骨格部位に応じてスコアを算出してもよい。たとえば、算出部205は、頭部付近に手前被りが発生している場合は、脚部付近に手前被りが発生している場合よりスコアを低くしてもよい。
また、算出部205は、さらに、画像データ400内における被写体に関する大きさ、姿勢、配置、デフォーカス量、および、他の被写体と比較した被写体の大きさのうち、少なくともいずれか1つに基づいて、スコアを算出してもよい。
図9は、スコア算出例1を示す説明図である。被写体の大きさに関するスコア(以下、大きさスコア)は、顔検出情報および骨格情報で特定された人物の被写体901の縦方向の幅V1を画像データ900の背景となる縦方向の幅V0で割った比「V1/V0」である。大きさスコアは、他の人物の被写体902~904についても算出される。
被写体の姿勢に関するスコア(以下、ポーズスコア)は、顔検出情報および骨格情報で特定された人物の被写体901~904の骨格情報に基づいて被写体901~904ごとに算出されるスコアである。具体的には、たとえば、ポーズスコアは、被写体901~904の縦方向において手の位置が高い位置にあるほど高くなり、両手が映っている場合には両手が離れているほど高くなる。たとえば、被写体が万歳をしている状態で最もポーズスコアが高くなる。
被写体の配置に関するスコア(ポジションスコア)は、顔検出情報および骨格情報で特定された人物の被写体901~904の撮像範囲の配置に基づいて被写体901~904ごとに算出されるスコアである。具体的には、たとえば、ポジションスコアは被写体901~904が撮像範囲の中央付近に配置されていると高くなり、被写体901~904が撮像範囲の四隅付近に配置されていると低くなる。また、1つの画像データ内に複数の被写体が含まれる場合における被写体の配置や散らばり程度等の全体的なバランスに注目して、画像データ全体としてスコアを付与することもできる。
被写体のデフォーカス量に関するスコア(以下、フォーカススコア)は、顔検出情報および骨格情報で特定された人物の被写体901~904の顔検出情報と、デプスマップ600から得られるデプス情報と、フォーカス情報と、に基づいて被写体901~904ごとに算出されるスコアである。フォーカス情報は、画像データ400を例に挙げると、AF測距点410の位置でのデフォーカス量に基づく合焦状態に関する情報である。具体的には、たとえば、フォーカススコアは、被写体の顔の目周辺のピントが合っているほど高くなる。
図10は、スコア算出例2を示す説明図である。他の被写体と比較した被写体の大きさに関するスコア(以下、目立ち具合スコア)は、被写体901~904の縦方向の幅V1~V4に基づいて、被写体901~904間の相対的なサイズを示すスコアである。具体的には、たとえば、画像データ900については、目立ち具合スコアの値csは、下記式(1)により算出される。
cs=V#/(V1+V2+V3+V4)・・・(1)
ただし、#は、1~4のいずれかの値。
ただし、#は、1~4のいずれかの値。
このように、算出部205は、被写体ごとに、手前被りスコア、大きさスコア、ポーズスコア、ポジションスコア、フォーカススコア、および目立ち具合スコアを算出するとともに、手前被りスコア、大きさスコア、ポーズスコア、ポジションスコア、フォーカススコア、および目立ち具合スコアの総合スコアを、被写体の推薦度を示すスコアとして算出する。
総合スコアは、たとえば、これらの要素を任意に組み合わせて単純和や重み付き線形和の回帰式で表現することもできる。また、これらの各要素の基準値を合わせるために正規化の手法を用いてもよい。この場合、正規化された各要素に対して重みづけを行い、単純和や重み付き線形和の回帰式で表現してもよい。
なお、手前被り、被写体の大きさ、ポーズ、ポジション、フォーカスや目立ち具合に関する各スコアの算出方法を撮影シーンに応じて変更してもよい。たとえば、撮影シーンがマラソンのゴールシーンである場合、被写体の両腕が横方向に伸びているポーズを含む画像データに対して高いポーズスコアを付与することもできる。また、手前被り被写体により顔検出されない人物の被写体については、その分、手前被りスコアを低くしてもよい。
出力部206は、判定部204による判定結果や算出部205による算出結果を出力する。判定結果とは、手前被り被写体の有無である。算出結果とは、手前被りスコア、大きさスコア、ポーズスコア、フォーカススコア、目立ち具合スコア、および総合スコアである。
図11は、出力部206によるスコアの表示例を示す説明図である。図11では、被写体401~403ごとにスコアSC1~SC3が関連付けて表示されている。
このように、実施例1によれば、主要被写体の重なり状態を判定することができ、主要被写体が、他の被写体によって手前被り被写体であるかどうかを特定することができる。また、重なり状態および手前被り被写体の有無により、被写体を含む画像の推薦度を示すスコアの高精度化を図ることができる。
つぎに、実施例2について説明する。実施例2では、主要被写体に隣接し、かつ、主要被写体よりも手前にピントが合う(いわゆる、前ピン)被写体のボケ量が大きすぎて、デプスマップ600やデフォーカスマップでは手前被り判定ができない場合に有効な手前被り判定例を示す。なお、実施例2では、実施例1との相違点を中心に説明する。また、実施例1と同一箇所には同一符号を付し、その説明を省略する。
<画像処理装置の機能的構成例>
図12は、実施例2にかかる画像処理装置の機能的構成例を示すブロック図である。図13は、実施例2にかかる画像処理装置による画像処理手順例を示すフローチャートである。画像処理装置1200は、取得部201と、抽出部1202と、分割部1203と、判定部1204と、算出部205と、出力部206と、を有する。抽出部1202、分割部1203、判定部1204、および算出部205は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。
図12は、実施例2にかかる画像処理装置の機能的構成例を示すブロック図である。図13は、実施例2にかかる画像処理装置による画像処理手順例を示すフローチャートである。画像処理装置1200は、取得部201と、抽出部1202と、分割部1203と、判定部1204と、算出部205と、出力部206と、を有する。抽出部1202、分割部1203、判定部1204、および算出部205は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。
図13において、画像処理装置200は、取得部201による画像データ400の取得(ステップS1301)、抽出部1202による被写体抽出(ステップS1302)、分割部1203による被写体分割(ステップS1303)、判定部1204による重なり状態の判定(ステップS1304)、算出部205によるスコアの算出(ステップS1305)、および出力部206による結果出力(ステップS1303)を実行する。
抽出部1202は、複数の被写体401~403を含む画像データ400に関する顕著性マップ700および奥行き情報に基づいて、主要被写体401および被写体402を抽出する。奥行き情報は、実施例1で説明したように、画像データ400の奥行き情報をあらわすデフォーカス情報又はデプス情報のうちいずれか1つである。
隣接する複数の被写体の各々の奥行き情報の差が許容範囲外であれば、主要被写体401および被写体402のように、別々の被写体として抽出される。隣接する複数の被写体の各々の奥行き情報の差が許容範囲内であれば、1つの被写体として抽出される。ただし、顕著性マップ700を用いることにより、隣接する複数の被写体の各々の輪郭が検出されるため、奥行き情報の差が許容範囲内であっても、別々の被写体として抽出される。したがって、抽出部1202は、ボケ量が大きすぎてデフォーカスマップやデプスマップ600では抽出できない被写体も抽出することができる。
また、抽出部1202は、さらに、画像データ400内のオブジェクトの姿勢に基づいて、主要被写体401を抽出する。たとえば、抽出部1202は、実施例1と同様、デプスマップ600を参照してオブジェクトを抽出する。
分割部1203は、抽出部1202が抽出した被写体を分割する。具体的には、たとえば、複数の被写体の各々の奥行き情報の差が許容範囲内である場合、顕著性マップ700を用いても、1つの被写体として抽出される場合がある。
図14は、被写体の分割例を示す説明図である。画像データ1400において、抽出部1202が被写体1430を抽出したとする。この場合、分割部1203は、骨格情報を用いて、被写体1430内に複数の人物の被写体402,1403が含まれていることを特定し、被写体402と被写体1403との間の境界を設定する。この境界は、近接する被写体402の骨格点と被写体1403の骨格点との中間点としてもよい。分割部1203は、この中間点を通過する線を境界に設定し、被写体1430を被写体402と被写体1403とに分割する。
分割部1203は、さらに、顔検出情報を用いて被写体1430を被写体402と被写体1403とに分割してもよい。顔検出情報を用いることにより、被写体1430内の人物の数および位置を特定することができるため、分割精度の向上を図ることができる。
判定部1204は、主要被写体401と被写体402とに関する奥行き情報、および、主要被写体401と被写体402との接近度合いに基づいて、主要被写体401と被写体402との重なり状態を判定する。具体的には、たとえば、判定部1204は、実施例1と同様、主要被写体401の輪郭と重なる所定位置ごとに、被写体402の輪郭と重なる所定位置との最短距離を検出する。判定部1204は、最短距離の統計値を主要被写体401と被写体402との重なり状態を示す値として算出する。
また、分割部1203によって被写体分割が実行された場合、判定部1204は、主要被写体401と、被写体402および被写体1403とのうち、いずれかの被写体、たとえば、主要被写体401に近接する方の被写体402とに関する奥行き情報、および、主要被写体401と被写体402との接近度合いに基づいて、主要被写体401と被写体402との重なり状態を判定する。
被写体402および被写体1403とのうちいずれが主要被写体401と近接するかについては、たとえば、分割部1203は、主要被写体401の輪郭と被写体402の輪郭との最短距離と、主要被写体401の輪郭と被写体1403の輪郭との最短距離と、を比較して、短い方の被写体を主要被写体401と近接する特定の被写体としてもよい。また、分割部1203は、主要被写体401の骨格点と被写体402の骨格点との最短距離と、主要被写体401の骨格点と被写体1403の骨格点との最短距離と、を比較して、短い方の被写体を主要被写体401と近接する特定の被写体としてもよい。
このように、重なり状態を示す値が小さいほど主要被写体401の周辺の被写体402は手前被り被写体と判定される可能性が高くなり、重なり状態を示す値が大きいほど主要被写体401の周辺の被写体403は手前被り被写体と判定されない可能性が高くなる。
実施例2によれば、顕著性マップ700を用いて被写体抽出を実行するため、ボケ量が大きすぎてデフォーカスマップやデプスマップ600では抽出できない被写体も抽出することができる。したがって、重なり状態の判定対象候補の欠落を抑制することができ、算出部によって算出されるスコアの高精度化を図ることができる。
つぎに、実施例3について説明する。実施例3は、実施例2において、動く被写体の重なり状態を判定する例である。なお、実施例3では、実施例1および実施例2との相違点を中心に説明する。また、実施例1および実施例2と同一箇所には同一符号を付し、その説明を省略する。
図15は、手前被り発生例を示す説明図である。図15は、例として、撮像装置100が10[fps]で連射中に、画像データ1501の次のフレームの画像データ1502で手前被りが発生した例を示す。画像データ1501は、動く被写体(矢印A方向に走っている走者)である第1被写体1510と、静止している被写体(たとえば、看板やポスト)である第2被写体1520と、を画像として含む。画像データ1502は、第1被写体1510の動きにより、第1被写体1510の一部が第2被写体1520に隠れてしまい、第2被写体1520による手前被りが発生した状態を示す。
図16は、手前被り改善例を示す説明図である。図16は、図15のような手前被りが発生しないように、撮像装置100が10[fps]で連射中に、画像データ1501の取得後、連射速度(フレームレート)を10[fps]から5[fps]に減速して画像データ1602を撮像した例である。このように、手前被りが発生しないよう、撮像装置100は、事前に連射速度を変更する。
図17は、判定部1204による連射速度の変更例を示す説明図である。画像データ1501の左下頂点を原点とし、右下頂点のx座標値をx3とする。まず、画像データ1501内の情報について説明する。第1矩形1710は、第1被写体1510が内接する矩形データである。第1矩形1710の縦の辺の実空間での長さをH[m]、横の辺の実空間での長さをW[m]とする。また、第1矩形1710の左上頂点座標値を(x0,y0)とする。また、第1被写体1510の矢印A方向の移動速度をa[m/s]とする。
第2矩形1720は、第2被写体1520が内接する矩形データである。原点Oを基準として、第2矩形1720の左上頂点座標値を(x1,y1)とし、右下頂点座標値を(x2,y2)とする。また、変更前のフレームレートをb[fps]とする。これら画像データ1501内の情報は、画像データ1501以前のフレームまでの既知のCV演算により取得されるものとする。
まず、判定部1204は、画像データ1501の第2被写体1520が、次のフレームで第1被写体1510の手前に被るか否かを判定する。第2被写体1520が第1被写体1510の手前に被る条件は、(i)次のフレームにおいて、第1矩形1710の右上頂点のx座標値x10が、第2矩形1720の幅(x1,x2)にあること、(ii)次のフレームにおいて、第1矩形1710の右上頂点のx座標値x10が第2矩形1720の右下頂点のx座標値x2よりプラス側にある場合に、第1矩形1710の左上頂点のx座標値x20が、第2矩形1720の右下頂点のx座標値x2より小さいこと、のいずれかの条件を満たすことである。
以下の説明では、上述の(i)の条件においてフレームレートb[fps]を上昇させ、または低下させることにより、第2被写体1520が第1被写体1510の手前に被ることを回避するための一例を示す。具体的には、たとえば、判定部1204は、次のフレームまでに第1被写体1510が移動する距離a/b[m]を算出する。また、次のフレームでの第1矩形1710の右上頂点のx座標値x10を下記式(2)で算出する。
x10=x0+W+a/b・・・(2)
判定部1204は、上記式(2)の算出結果であるx座標値x10が、下記式(3)により、第2矩形1720の幅(x1,x2)に含まれるか否かを判定する。
x1<x10<x2・・・(3)
上記式(3)を充足する場合、第2被写体1520による第1被写体1510の手前被りが発生する。したがって、撮像部120は、下記式(4)を充足するように、フレームレートb[fps]を調整する。
b>a/(x1-x0-W)・・・(4)
上記の例では、フレームレートb[fps]を上昇させる例について示したが、フレームレートb[fps]を下げるように調整してもよい。具体的には、撮像部120は、下記式(5)を充足するように、フレームレートb[fps]を調整する。
b<a/(x2-x0)・・・(5)
これにより、フレームレートb[fps]を低下させることによっても、第2被写体1520による第1被写体1510の手前被りを抑制することができる。なお、フレームレートb[fps]を低下させた場合、次のフレームにおいて、第1被写体1510が画像データ1501の枠内に収まるように、すなわち、第1矩形1710の右上頂点のx座標値x10が画像データ1501のx座標値x3を超えないように調整してもよい。また、実施例3では、第1被写体1510が+X方向に移動する例を示しているが、この形態に限定されない。たとえば、第1被写体1510が-X方向や+Y方向に移動していてもよい。
このように、判定部1204は、第1被写体1510および第2被写体1520の少なくともいずれか一方が動いている場合、動いている第1被写体1510の速さと動きの方向、および、第1被写体1510および第2被写体1520の大きさに基づいて、所定時間経過時における第1被写体1510と第2被写体1520との重なり状態を判定する。
そして、第1被写体1510と第2被写体1520とが重なると判定された場合、撮像部120は、第1被写体1510および第2被写体1520が重ならないように、撮像タイミングをより早く又は遅く制御して撮像する。したがって、第2被写体1520による第1被写体1510の手前被りを抑制することができる。
なお、所定時間経過後に第1被写体1510と第2被写体1520とが重なると判定された場合、撮像タイミングを変えずに、所定時間経過後に撮像する画像データを記憶デバイスに保存しないように処理してもよい。このように、手前被りが生じている画像データの保存を行わないことで、記憶デバイスの保存容量を抑制することができる。
なお、上述した例では、左から右に向かう矢印A方向に移動する第1被写体1510を例に挙げて説明したが、第1被写体1510は、右から左に向かう方向に移動した場合でも、適用可能である。この場合、上記式(1)~(6)の不等号が逆になる。また、被写体の移動方向が左右方向ではなく、上下方向や斜め方向でも同様に適用可能である。
実施例3によれば、手前被りを事前に予測してフレームレートを調整することにより、手前被りの発生を低減することができる。またこれにより、スコアの高い画像データの数を増加することができる。
なお、本発明は上記の内容に限定されるものではなく、これらを任意に組み合わせたものであっても良い。また、本発明の技術的思想の範囲で考えられるその他の態様も本発明の範囲に含まれる。たとえば、本実施形態では、判定部が主要被写体と他の被写体との被り状態を判定しているが、判定部の代わりに、検出部が、主要被写体と他の被写体との被り状態を検出してもよい。
100 撮像装置、120 撮像部、130 画像処理部、200 画像処理装置、201 取得部、202 抽出部、203 検出部、204 判定部、205 算出部、206 出力部、400 画像データ、401~403 被写体、410~413 AF測距点、500 デプスマップ、600 デフォーカス値プロットグラフ、700 顕著性マップ、900 画像データ、901~904 被写体、1200 画像処理装置、1202 抽出部、1203 分割部、1204 判定部、1400 画像データ、1403 被写体、1430 被写体、1501 画像データ、1502 画像データ、1510 被写体、1520 被写体、1602 画像データ
Claims (24)
- 被写体を含む画像データから第1被写体を抽出する抽出部と、
前記画像データ内の複数位置における奥行き情報を検出する検出部と、
前記奥行き情報を検出した複数位置のうち、前記第1被写体と重なる所定位置と前記第1被写体の周辺の所定位置のそれぞれの位置における前記奥行き情報、及び、前記それぞれの位置の接近度合いに基づいて、前記第1被写体と他の被写体との重なり状態を判定する判定部と、
を備える画像処理装置。 - 前記奥行き情報は、デフォーカス情報及びデプス情報のうち少なくとも1つである、請求項1に記載の画像処理装置。
- 前記抽出部は、前記画像データ内のオブジェクトの姿勢に基づいて、前記第1被写体を抽出する、請求項1又は2に記載の画像処理装置。
- 前記抽出部は、顔検出された前記画像データ内のオブジェクトの姿勢 に基づいて、前記第1被写体を抽出する、請求項3に記載の画像処理装置。
- 前記抽出部は、前記画像データに関する顕著性マップに基づいて、前記第1被写体を抽出する、請求項1から4のいずれか一項に記載の画像処理装置。
- 前記抽出部は、前記画像データの取得において、前記被写体の焦点検出のために設定された測距点から手動で又は自動で選択された測距点と重なる被写体を前記第1被写体として抽出する、請求項1から5のいずれか一項に記載の画像処理装置。
- 前記奥行き情報を検出した前記複数位置は、前記焦点検出のために設定された測距点の位置であり、前記奥行き情報は、前記焦点検出の結果を用いて取得される、請求項6に記載の画像処理装置。
- 前記判定部は、前記画像データの取得において検出された前記複数位置の前記デフォーカス情報をあらわすデフォーカスマップ又は前記デプス情報をあらわすデプスマップを用いて、前記それぞれの位置における前記デフォーカス情報又は前記デプス情報、及び、前記それぞれの位置の接近度合いを決定する、請求項2に記載の画像処理装置。
- 前記抽出部が抽出した第1被写体について、該第1被写体の推薦度を示すスコアを算出する算出部を有する、請求項1から8のいずれか一項に記載の画像処理装置。
- 前記算出部は、前記第1被写体について前記推薦度を算出する場合、前記判定部が判定した前記第1被写体と前記他の被写体との重なり状態に基づいて、前記スコアを算出する、請求項9に記載の画像処理装置。
- 前記算出部は、前記画像データ内における前記第1被写体に関する大きさ、姿勢、配置、デフォーカス量、及び、他の被写体と比較した前記第1被写体の大きさのうち少なくともいずれか1つに基づいて、前記スコアを算出する、請求項9又は10に記載の画像処理装置。
- 少なくとも1つの被写体を含む画像データに関する顕著性マップ及び奥行き情報に基づいて、第1被写体及び第2被写体を抽出する抽出部と、
前記第1被写体と前記第2被写体に関する奥行き情報、及び、前記第1被写体と前記第2被写体の接近度合いに基づいて、前記第1被写体と前記第2被写体との重なり状態を判定する判定部と、
を備える画像処理装置。 - 前記奥行き情報は、前記画像データの奥行き情報をあらわすデフォーカス情報又はデプス情報のうちいずれか1つである、請求項12に記載の画像処理装置。
- 前記抽出部は、更に、前記画像データ内のオブジェクトの姿勢に基づいて、前記第1被写体を抽出する、請求項12又は13に記載の画像処理装置。
- 前記抽出部が抽出した前記第2被写体を分割する分割部を備え、
前記判定部は、前記第1被写体と、前記第2被写体から分割された複数の第2分割被写体のうち特定の第2分割被写体との接近度合いに基づいて、前記第1被写体と前記特定の第2分割被写体との重なり状態を判定する、請求項12から14のいずれか一項に記載の画像処理装置。 - 前記抽出部が抽出した第1被写体について、該第1被写体の推薦度を示すスコアを算出する算出部を有する、請求項12から15のいずれか一項に記載の画像処理装置。
- 前記算出部は、前記判定部が判定した前記第1被写体と第2被写体との重なり状態に基づいて、前記スコアを算出する、請求項16に記載の画像処理装置。
- 前記算出部は、前記画像データ内における前記第1被写体に関する大きさ、姿勢、配置、デフォーカス量、及び、他の被写体と比較した前記第1被写体の大きさ、のうち少なくともいずれか1つに基づいて、前記スコアを算出する、請求項16から17のいずれか一項に記載の画像処理装置。
- 前記判定部は、前記第1被写体及び前記第2被写体の少なくともいずれか一方が動いている場合、動いている被写体の速さと動きの方向、及び、前記第1被写体及び第2被写体の大きさに基づいて、所定時間経過時における前記第1被写体と前記第2被写体との重なり状態を判定する、請求項12から18のいずれか一項に記載の画像処理装置。
- 請求項1から19のいずれか一項に記載の画像処理装置を有する撮像装置。
- 被写体を所定のタイミングで撮像する撮像部を備え、
前記判定部が、前記撮像部が撮像する前記所定のタイミングにおいて前記第1被写体及び第2被写体が重なると判定した場合、前記撮像部は、前記第1被写体及び第2被写体が重ならないように、前記所定のタイミングより早く又は遅く撮影する、請求項12から19のいずれか一項を引用する請求項20に記載の撮像装置。 - 前記第1被写体を含む被写体を撮像する撮像部と、
前記撮像部による撮像結果を表示する表示部を備え、
前記画像処理装置は、前記第1被写体と他の被写体との重なり状態を示すオブジェクトを前記表示部に表示する、請求項20に記載の撮像装置。 - 画像処理装置が、
被写体を含む画像データから第1被写体を抽出する抽出処理と、
前記画像データ内の複数位置における奥行き情報を検出する検出処理と、
前記奥行き情報を検出した、前記第1被写体と重なる所定位置と前記第1被写体の周辺の所定位置のそれぞれの位置における前記奥行き情報、及び、前記それぞれの位置の接近度合いに基づいて、前記第1被写体と他の被写体との重なり状態を判定する判定処理と、
を実行する画像処理方法。 - 画像処理装置が、
被写体を含む画像データに関する顕著性マップ及び奥行き情報に基づいて、第1被写体及び第2被写体を抽出する抽出処理と、
前記第1被写体と前記第2被写体に関する奥行き情報、及び、前記第1被写体と前記第2被写体の接近度合いに基づいて、前記第1被写体と前記第2被写体との重なり状態を判定する判定処理と、
を実行する画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021184192A JP2023071422A (ja) | 2021-11-11 | 2021-11-11 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021184192A JP2023071422A (ja) | 2021-11-11 | 2021-11-11 | 画像処理装置および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023071422A true JP2023071422A (ja) | 2023-05-23 |
Family
ID=86409759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021184192A Pending JP2023071422A (ja) | 2021-11-11 | 2021-11-11 | 画像処理装置および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023071422A (ja) |
-
2021
- 2021-11-11 JP JP2021184192A patent/JP2023071422A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101142316B1 (ko) | 화상 선택 장치 및 화상 선택 방법 | |
WO2021047345A1 (zh) | 图像降噪方法、装置、存储介质及电子设备 | |
CN108093158B (zh) | 图像虚化处理方法、装置、移动设备和计算机可读介质 | |
CN108605087B (zh) | 终端的拍照方法、拍照装置和终端 | |
WO2019105297A1 (zh) | 图像虚化处理方法、装置、移动设备及存储介质 | |
JP2017038162A (ja) | 撮像装置及び画像処理方法、プログラム、並びに記憶媒体 | |
CN108574803B (zh) | 图像的选取方法、装置、存储介质及电子设备 | |
US10198868B2 (en) | Information processing apparatus, method for controlling information processing apparatus, image processing system and non-transitory computer-readable storage medium | |
CN111182208B (zh) | 拍照方法、装置、存储介质及电子设备 | |
JP2009123081A (ja) | 顔検出方法及び撮影装置 | |
JP5395650B2 (ja) | 被写体領域抽出装置およびその制御方法、被写体追跡装置、並びにプログラム | |
JP2017073639A (ja) | 画像処理装置およびその制御方法ならびにプログラム | |
CN108462831B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN108259769B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
JP2011135527A (ja) | デジタルカメラ | |
JP2011071925A (ja) | 移動体追尾装置および方法 | |
CN108520036B (zh) | 图像的选取方法、装置、存储介质及电子设备 | |
EP4199528A1 (en) | Image processing apparatus, image capture apparatus, and image processing method | |
JP2010187208A (ja) | 電子スチルカメラ | |
JP2014120139A (ja) | 画像処理装置およびその制御方法、撮像装置、および表示装置 | |
JP6024135B2 (ja) | 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム | |
CN115037867B (zh) | 拍摄方法、装置、计算机可读存储介质及电子设备 | |
JP2023071422A (ja) | 画像処理装置および画像処理方法 | |
CN108335278B (zh) | 图像的处理方法、装置、存储介质及电子设备 | |
CN108259768B (zh) | 图像的选取方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240813 |