JP7446080B2 - 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム - Google Patents

画像処理装置、撮像装置、制御方法、プログラム及び撮像システム Download PDF

Info

Publication number
JP7446080B2
JP7446080B2 JP2019188864A JP2019188864A JP7446080B2 JP 7446080 B2 JP7446080 B2 JP 7446080B2 JP 2019188864 A JP2019188864 A JP 2019188864A JP 2019188864 A JP2019188864 A JP 2019188864A JP 7446080 B2 JP7446080 B2 JP 7446080B2
Authority
JP
Japan
Prior art keywords
subject
captured image
area
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019188864A
Other languages
English (en)
Other versions
JP2021064884A (ja
Inventor
尚子 渡澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019188864A priority Critical patent/JP7446080B2/ja
Priority to US17/060,176 priority patent/US11595572B2/en
Priority to EP20199525.5A priority patent/EP3809690A1/en
Priority to CN202011090861.5A priority patent/CN112672066B/zh
Publication of JP2021064884A publication Critical patent/JP2021064884A/ja
Application granted granted Critical
Publication of JP7446080B2 publication Critical patent/JP7446080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置、撮像装置、制御方法、プログラム及び撮像システムに関し、特に撮影により得られた画像に対して、撮像後に所定の効果を付加する画像処理を適用する技術に関する。
撮像により得られた撮像画像に対して、被写体領域を検出し、該被写体領域に対して補正処理等の画像処理を適用する技術が知られている。例えば、検出した被写体領域に対して、仮想的な光源によって照射された効果を付加する、所謂リライティング処理がある(特許文献1)。リライティング処理によれば、撮影時の環境光によって撮像画像に生じている陰影等の暗い領域を明るくし、好適な雰囲気の撮像画像を得ることができる。
例えば、特許文献1では、被写体の陰影の状態を適切に補正することができるリライティング処理について開示されている。具体的には、撮影画像の被写体の所定領域の陰影の状態を検出し、検出された陰影の状態に基づいて、仮想光源の特性を決定する。そして決定された特性を有する仮想光源で光を照射した場合の陰影の状態になるように、撮影画像を補正する。
特開2016-072694号公報
ところで、特許文献1には被写体領域の検出方法については特に言及されていない。撮像画像における特許文献1のような主被写体を含む被写体領域は、例えば撮像範囲に存在する被写体の奥行き方向の距離分布の情報(距離情報)を取得し、主被写体を含む所定の距離範囲を示す画素で構成された領域として、特定することができる。
従って、距離情報を取得して被写体領域を特定することで、例えば、手前にいる被写体(前景)を示す被写体領域と、奥にいる被写体(円形)を示す被写体領域とを区別することができる。結果、特許文献1のようなリライティング処理では、1つの仮想光源を前景の被写体にあてた場合と背景の被写体にあてた場合とで、仮想光源から被写体までの距離差や照射量(強度)に応じた変化を表現した画像の生成が可能である。
一方で、距離情報に基づいて被写体領域を特定する方式では、距離情報の計測精度によっては好適な被写体領域の特定が困難なことがある。例えば、距離情報を取得することが苦手な撮像条件(撮像設定や撮像環境の状態)では、撮像画像に被写体の像が精細に現れないため、導出される被写体距離の精度が低くなる。
本発明は、上述の問題点に鑑みてなされたものであり、好適に被写体領域を特定し、例えば該被写体領域への所望の効果付加を実現する画像処理装置、撮像装置、制御方法、プログラム及び撮像システムを提供することを目的とする。
前述の目的を達成するために、本発明の画像処理装置は、撮像画像に対して、所定の被写体が含まれる領域についての画像処理を実行する画像処理装置であって、撮像画像について、深度方向の被写体距離の分布を示した距離情報、及び撮像画像に含まれる所定の被写体の検出結果を示した被写体情報を取得する取得手段と、取得手段により取得された距離情報に基づいて、撮像画像において所定の距離範囲に存在する被写体の像が分布する第1の被写体領域を特定する第1の特定手段と、取得手段により取得された距離情報に基づかず、被写体情報に基づいて、撮像画像において所定の被写体が検出された領域を含む第2の被写体領域を特定する第2の特定手段と、第1の被写体領域及び第2の被写体領域の少なくともいずれかを参照し、画像処理を実行する対象領域を決定する決定手段と、を有し、決定手段は、撮像画像の撮像条件及び撮像画像の状態の少なくともいずれかに応じて、参照する被写体領域を異ならせることを特徴とする。
本発明によれば、好適に被写体領域を特定し、該被写体領域への所望の効果付加を実現することが可能となる。
本発明の実施形態に係るデジタルカメラ100の機能構成を例示したブロック図 本発明の実施形態に係る画像処理部105の詳細構成を例示したブロック図 本発明の実施形態に係る画像処理部105の動作を例示したフローチャート 本発明の実施形態に係るリライティング部114の詳細構成を例示したブロック図 本発明の実施形態に係るリライティング処理において定義する仮想光源を説明するための図 本発明の実施形態に係るリライティング処理において使用する法線マップを説明するための図 本発明の実施形態に係るリライティング処理を適用した状態を説明するための図 本発明の実施形態に係るリライティング部114で実行されるリライティング処理を例示したフローチャート 本発明の実施形態に係るリライティング処理において使用する人物の形状を示したモデルを例示した図
[実施形態]
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
以下に説明する一実施形態は、画像処理装置の一例としての、撮像画像と、該撮像画像に係る撮像範囲に存在する被写体の、深度方向の被写体距離の分布を示す距離情報とを取得可能なデジタルカメラに、本発明を適用した例を説明する。しかし、本発明は、撮像画像と、該撮像画像に係る撮像範囲に存在する被写体の被写体距離の分布を示す距離情報とを取得することが可能な任意の機器に適用可能である。
《デジタルカメラ100の構成》
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示したブロック図である。
撮像部103は、例えばCCDやCMOSセンサ等の撮像素子であり、ズームレンズ、フォーカスレンズを含むレンズ群101(撮像光学系)、及び、絞り機能を備えるシャッター102を介して撮像面に結像された光学像を光電変換する。撮像部103は、光電変換により得られたアナログ画像信号を、A/D変換器104に出力する。撮像部103が有する撮像素子は、ベイヤー配列のカラーフィルタが適用されているものとし、撮像部103により出力される各画素の信号は、R、G、Bいずれかの信号強度を示しているものとする。A/D変換器104は、入力されたアナログ画像信号をデジタル画像信号(画像データ)に変換し、画像処理部105に出力する。
画像処理部105は、A/D変換器104から入力された画像データ、またはメモリ制御部107を介して画像メモリ106から読み出された画像データに対し、ホワイトバランス等の色変換処理、γ処理、輪郭強調処理、色補正処理等の各種画像処理を行う。画像処理部105による画像処理が適用されて出力された画像データ(撮像画像)は、メモリ制御部107を介して画像メモリ106に格納される。画像メモリ106は、画像処理部105から出力された画像データや、表示部109に表示するための画像データを格納する記録装置である。本実施形態の画像処理部105は、図2に示されるような機能構成を有しているものとするが、撮像時の動作の詳細については、図3のフローチャートを参照して後述する。
検出部113は、撮像画像に含まれる予め定められた被写体の像が現れている領域を検出する。本実施形態では、予め定められた被写体として、検出部113は人物の顔及び顔を構成する器官の像を検出するものとして説明するが、本発明の実施はこれに限られるものではない。検出対象の被写体は、人間に限らずその他の動物や動体を含むものであってもよいし、この他、予め登録された建物や物体が含まれていてもよい。また、本実施形態では、デジタルカメラ100が1つの検出部113を有しているものとして説明するが、被写体を検出する構成はこれに限られるものではなく、各々検出対象とする被写体の種別が異なる複数の検出部113を有するものであってもよい。従って、検出部113は、検出対象として定められた被写体の像を検出可能に構成されていてよく、後述の被写体情報が、都度、検出対象の設定に基づいた内容の情報となることは言うまでもない。以下、説明において被写体という場合は上述の予め定められた被写体を指す。また、被写体以外の領域を背景と呼ぶ場合がある。
また画像処理部105は、検出部113による検出結果と撮像画像とを用いて、焦点状態の評価値を導出する処理を行い、得られた評価値をシステム制御部50に出力する。このとき、システム制御部50は、得られた評価値に基づいて、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等の露光制御、測距制御を行う。
D/A変換器108は、画像メモリ106に格納された表示用のデジタル画像データをアナログ信号に変換して表示部109に供給する。表示部109は、例えばLCD等の表示装置に、D/A変換器108からのアナログ信号を表示するよう表示制御を行う。
圧縮伸長部110は、画像メモリ106に格納された撮像画像や画像データに対し、JPEGやMPEG等の規格に基づいた圧縮符号化処理を行う。符号化された画像データは、システム制御部50により、インタフェース(I/F)111を介して、メモリカードやハードディスク等の記録媒体112に格納する。また、I/F111を介して記録媒体112から読み出された画像データは、圧縮伸長部110によって復号されて伸長され、画像メモリ106に格納される。該格納された画像データは、メモリ制御部107及びD/A変換器108を介して、表示部109により表示される。
リライティング部114は、撮像画像に現されたシーンの被写体を、撮像後に仮想光源を擬似的に照射した照明状態(明るさ)に補正するリライティング処理(再照明処理)を行う。リライティング部114により行われるリライティング処理については、別図を参照して詳細を後述する。
システム制御部50は、例えばマイクロプロセッサ等の演算装置であり、デジタルカメラ100が有する各ブロックの動作を制御する。不揮発性メモリ121は、EEPROM等のメモリにより構成され、システム制御部50の処理に必要なプログラムやパラメータ等を格納する。システム制御部50は、不揮発性メモリ121に記録されたプログラム、及び、システム制御部50の動作用の定数、変数をシステムメモリ122に展開して実行することで、各ブロックの動作制御に係る処理を実行する。システムメモリ122は、例えば揮発性の記憶装置であってよく、各種データの展開領域としてだけでなく、各ブロックの動作で出力された中間データを格納する格納領域としても用いられるものであってよい。
操作部120は、例えばレリーズスイッチやメニューボタン等、デジタルカメラ100が備えるユーザインタフェースであり、該ユーザインタフェースに対する操作入力がなされると、該操作入力に対応する制御信号をシステム制御部50に出力する。操作部120は、例えばメニューの設定や画像選択に係る操作入力を受け付ける。
測距センサ123は、デジタルカメラ100が備える、撮像範囲に存在する被写体について測距を行う。本実施形態では測距センサ123は、撮像範囲について異なる2つの視点から撮像することで得られた撮像画像に基づいて、ステレオ方式で被写体距離を導出するものとする。距離情報は、例えば撮像画像もしくは撮像の直前等に撮像された撮像画像に基づいて構成されるものであってよく、撮像画像と同様の2次元の画素構造を有しているものとする。距離情報の各画素は例えば、ステレオ方式での距離導出のために取得された2つの撮像画像について、一方の画像の各画素の像が他方の画像のいずれの位置に現れているかを特定した場合の、両画素の相対的な位置ずれ量の情報が格納されているものであってよい。
なお、本実施形態では撮像部103とは別に測距センサ123が設けられる態様について説明するが、撮像部103が測距センサ123として動作するものであってもよい。具体的には、撮像素子の画素毎に複数のマイクロレンズを配し、画素毎に視差の異なる複数の画像を得るようにしてもよい。
《画像処理部の構成及び撮像時の動作》
続いて、画像処理部105の構成及び撮像時の動作について、図2のブロック図及び図3のフローチャートを参照して詳細を説明する。
本実施形態の画像処理部105は、図2に示されるように撮像部103により撮像された画像信号と検出部113による検出結果とを入力として受け付ける。そして、画像処理部105は、輝度信号と色差信号で構成される撮像画像と、該撮像画像に含まれる被写体に関する情報(被写体情報)を構成して出力する。ここで、被写体情報とは、撮像画像に含まれる被写体の人数、位置、顔の大きさ、コントラスト、陰影状態を示す情報(陰影情報)等を含むものであってよい。
A/D変換器104からベイヤーRGBの画像データが入力されると、同時化処理部200はS301で、該画像データに対して同時化処理を行い、各画素に不足している色成分の情報を補完し、RGB画像を生成する。
S302で、WB増幅部201は、S301で生成されたRGB画像に対して、ホワイトバランスを調整する処理を適用する。ホワイトバランスは、システム制御部50により公知の処理で導出されたホワイトバランスゲイン値に基づいて調整されるものであってよい。WB増幅部201は、RGB画像のホワイトバランスを調整すると、調整後のRGB信号を輝度・色画像生成部202に出力する。
S303で、輝度・色画像生成部202は、入力されたRGB信号に基づいて輝度画像Yを生成して輪郭強調処理部203に出力する。また輝度・色画像生成部202は、入力されたRGB画像を色変換処理部205に出力する。図3に示すフローチャートでは、輝度画像Yについての処理とRGB画像についての処理を、便宜上、1つのフローの中で順序立てて説明するが、本発明の実施がこれに限られるものではないことは理解されよう。即ち、輝度画像Yに対する処理とRGB画像に対して画像処理部105で行われる処理は、並行して実行されるものであってよい。
S304で、輪郭強調処理部203は、入力された輝度画像Yに対して輪郭強調処理を適用し、処理後の輝度画像Yを輝度ガンマ処理部204に出力する。また色変換処理部205は、入力されたRGB画像に対して例えばマトリクス演算を適用し、所定のカラーバランスの画像に変換し、色ガンマ処理部206及び被写体情報構成部208に出力する。
S305で、被写体情報構成部208は、検出部113による顔または顔器官の検出結果の情報と、色変換処理部205から入力されたRGB画像とに基づいて、撮像画像についての被写体情報を構成する。被写体情報構成部208は、検出部113による検出結果に基づいて、被写体の人数、位置、顔の大きさの情報を特定する。また被写体情報構成部208は、検出された被写体に係るコントラストや陰影情報を、例えば撮像画像全体及び各被写体の像の平均輝度情報や輝度ヒストグラム情報に基づいて特定する。被写体情報構成部208は、被写体情報を構成すると、例えばシステムメモリ122に格納させる。
S306で、輝度ガンマ処理部204は、入力された輝度画像Yに対してガンマ補正を適用し、処理後の輝度画像Yをメモリ制御部107を介して画像メモリ106に格納させる。また色ガンマ処理部206は、入力されたRGB画像に対して同様にガンマ補正を適用し、処理後の画像を色差画像生成部207に出力する。
S307で、色差画像生成部207は、RGB画像から色差画像R-Y、B-Y画像を生成し、メモリ制御部107を介して画像メモリ106に格納させる。
《リライティング部の構成》
続いて、本実施形態のリライティング部114の詳細構成について、図4を参照して説明する。本実施形態ではリライティング部114は、画像処理部105により生成された輝度画像Y、色差画像B-Y及びR-Yと、測距センサ123により構成された距離情報と、画像処理部105により構成された被写体情報を用いて、リライティング処理を行う。
画像変換部401は、入力された輝度画像Yと色差画像B-Y及びR-YとをRGB画像に変換する。画像変換部401は、変換により生成されたRGB画像をデガンマ処理部402に出力する。
デガンマ処理部402は、リライティング部114に入力された画像群について画像処理部105の輝度ガンマ処理部204及び色ガンマ処理部206で適用されたガンマ補正と逆特性の演算(デガンマ処理)を、RGB画像に適用し、リニアデータに変換する。そしてデガンマ処理部402は、リニアデータに変換後のRGB画像(Rt、Gt、Bt)を、反射成分導出部407及び付加処理部408に出力する。
一方、距離導出部403は、測距センサ123により取得された距離情報に基づき、センサ距離マップを構成する。構成された距離マップは、被写体領域特定部404に出力される。
被写体領域特定部404は、撮像時の撮像条件(撮像設定等)を示す撮像情報、センサ距離マップ、及び被写体情報構成部208により構成された被写体情報に基づいて、リライティング処理にて参照する被写体領域マップを構成する。ここで、被写体領域マップとは、被写体までの距離を簡易的に示したマップであり、後述のリライティング処理において効果付加の対象となる対象領域を示す2次元情報である。より詳しくは被写体領域マップは、撮像画像中の被写体が存在する領域については、デジタルカメラ100からの距離が有意の距離にあるものとして、該領域の画素の画素値として、所定の手法で導出された値が格納される。反対に、被写体領域マップは、被写体が存在しない領域(背景領域等)については、デジタルカメラ100からの距離が有意ではないものとし、該領域の画素の画素値として、無限遠であることを示す固定値が格納されるものであってよい。即ち、被写体領域マップは、所定の距離範囲に含まれる被写体の像がある画素についてはセンサ距離マップに基づいて導出された値が格納され、それ以外の距離に存在していた被写体の像がある画素については、固定値が格納されるようにしてもよい。本実施形態のリライティング部114は、被写体領域の決定方法及び被写体領域マップの生成方法(特に被写体の存在する領域の画素値)は、撮像条件等によって異ならせるよう構成されており、その詳細については、フローチャートを用いて後述する。
法線導出部405は、被写体領域特定部404により構成された被写体領域マップに基づき、被写体の形状を示す形状情報として法線マップを生成する。法線マップの生成は、公知の技術を用いて行われるものであってよい。法線導出部405は、撮像画像の各画素に対応する法線Nの情報を画素値とする法線マップを構成すると、該法線マップを反射成分導出部407に出力する。
なお、本実施形態では距離導出部403、被写体領域特定部404、法線導出部405が、リライティング部114に組み込まれて構成されるものとして説明するが、本発明の実施はこれに限られるものではない。これらの機能構成は、例えば、測距センサ123や画像処理部105に組み込まれて構成されるものであってもよいし、リライティング部114とは独立した機能構成として存在するものであってもよい。
光源設定部406は、入力された被写体情報に基づいて、撮像画像(RGB画像)の被写体(人物)に対して照射する仮想光源の各種パラメータを設定する。例えば、顔全体が暗く撮像された被写体について、顔の明るさを全体的に明るくするリライティング処理を行う場合、顔領域の全体が照射範囲に含まれるように、仮想光源の位置、照射範囲、強度等のパラメータが設定される。
ここで、被写体として1人の人物が撮像範囲に存在している態様における、仮想光源の各種パラメータ設定について、図5を参照して説明する。図5(a)は、被写体と仮想光源の位置関係を示した斜視図、図5(b)は、被写体と仮想光源の位置関係を示した平面図である。光の減衰特性を考慮すると、仮想光源と被写体の距離が短いほど被写体が強く照明され、仮想光源と被写体の距離が長いほど被写体が弱く照明されるため、仮想光源の位置は、所望の照明状態となるよう被写体との離間度合いを考慮して決定される。また仮想光源の位置は、照明する被写体の面の向き等に応じて決定されるものであってよい。同様に、仮想光源の照明強度(光度)も、被写体が所望の照明状態となるように、その強弱が決定される。仮想光源の照射範囲は、広いほど被写体の多くの領域が照明され、狭いほど被写体の限定的な領域が照明されるため、照明させたい領域の大きさに応じて決定される。
反射成分導出部407は、仮想光源によって照明された際の、該光源からの光による反射表現を付加すべく、被写体の表面における仮想光源から照射された光の反射成分を導出する。反射成分導出部407は、被写体領域マップに基づいて定まる仮想光源と被写体との距離K、法線マップに基づく法線情報N、及び光源設定部406が設定した仮想光源の各種パラメータに基づき、仮想光源から照射された光(仮想光)の反射成分を導出する。RGB画像の各画素における仮想光の反射成分は、仮想光源と該画素に対応する被写体との距離Kの二乗に反比例し、該画素の被写体の面の法線Nと仮想光源から該画素の被写体への方向(光源方向)Lとのベクトルの内積に比例するように導出される。
ここで、仮想光の反射成分の一般的な導出方法について、図6に示されるように、リライティングに係る仮想光源602を配置する場合について説明する。なお、図6では説明を簡単にするため、RGB画像の水平方向についてのみ示しているが、図示される2次元平面に直交する方向(RGB画像の垂直方向)についても同様である。
以下、RGB画像における水平画素位置H1と不図示の垂直画素位置V1で示される、被写体601上の点P1について、仮想光の反射成分の導出方法を説明する。上述したように、点P1における仮想光の反射成分は、被写体601上の点P1における法線ベクトルN1と仮想光源602に係る光源方向ベクトルL1との内積に比例し、仮想光源602と点P1との距離K1の二乗に反比例する。図6では2次元のベクトルとして示しているが、法線ベクトルN1と光源方向ベクトルL1は、RGB画像の水平方向、垂直方向、及び奥行き方向(図6の距離Dで示す方向)で構成される3次元ベクトルである。このとき、仮想光の被写体601の点P1における反射成分(Ra,Ga,Ba)は、以下で表すことができる。
(数1)
Ra=α×(-L1・N1)/K12×Rt
Ga=α×(-L1・N1)/K12×Gt
Ba=α×(-L1・N1)/K12×Bt
ここで、αは仮想光源602の光の強度であって、リライティング補正量のゲイン値を示し、Rt、Gt、Btはデガンマ処理部402から入力されたRGB画像の点P1に係るRGBの各成分を示す。このようにして反射成分導出部407が導出した仮想光の反射成分(Ra,Ga,Ba)は、付加処理部408に出力される。なお、本実施形態では数1のように、距離の二乗に反比例するものとして反射成分を導出するものとして説明するが、他の演算方法で導出されるものであってもよいことは言うまでもない。
付加処理部408は、入力された仮想光の反射成分(Ra,Ga,Ba)の影響をRGB画像に反映する処理を行う。即ち、付加処理部408は、リライティングの影響を反映すべく、デガンマ処理部402からRGB画像に付加するため、以下の演算を行う。
(数2)
Rout=Rt+Ra
Gout=Gt+Ga
Bout=Bt+Ba
ここで、(Rout,Gout,Bout)は、リライティングの影響反映後のRGB画像の点P1に係るRGBの各成分を示す。付加処理部408は、リライティングの影響を反映する処理を行った後、得られたRGB画像をガンマ処理部409に出力する。
ガンマ処理部409は、入力されたリライティング後のRGB画像に対して、ガンマ補正処理を適用し、得られたRGB画像を輝度・色差画像生成部410に出力する。
輝度・色差画像生成部410は、入力されたガンマ処理後のRGB画像(R’out,G’out,B’out)を変換し、輝度画像Yと色差画像R-Y及びB-Yとを生成して出力する。
このようにリライティング部114において撮像画像にリライティング処理を適用することで、撮像後に、被写体の照明状態を変更した画像を得ることができる。例えば図7(a)に示されるように、屋内の撮像等で被写体が撮像画像に暗く現れる場合、リライティング処理を適用することで、図7(b)に示されるように被写体の領域の照明状態を補正した画像を生成することができる。なお、リライティング処理が適用されて得られた画像は、システム制御部50によりメモリ制御部107を介して画像メモリ106に蓄積された後、圧縮伸長部110による圧縮符号化が適用されて記録媒体112に格納されればよい。
《リライティング処理》
以下、このような構成をもつリライティング部114を用いて行われる、本実施形態のリライティング処理について、図8のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、システム制御部50が、例えば不揮発性メモリ121に記憶されている対応する処理プログラムを読み出し、システムメモリ122に展開して実行し、リライティング部114の動作制御を行うことで実現できる。本リライティング処理は、例えば記録媒体112に格納されている撮像画像に対して、被写体の照明状態を変更する指示がなされた際に開始されるものとして説明する。ここで、撮像画像は、上述したように輝度画像Yと色差画像R-Y及びB-Yで構成され、処理の実行時には画像メモリ106に展開されているものとする。また撮像画像については、該撮像画像に係る距離情報及び被写体情報と、撮像時の撮像設定の情報とが関連付けられて記録されており、本リライティング処理に際して各々参照可能に構成されているものとする。
S801で、被写体領域特定部404は、対象の撮像画像(対象画像)に係る撮像設定の情報を参照し、距離情報の取得に適した条件で対象画像の撮像が行われたか否かを判断する。本実施形態のデジタルカメラ100では、測距センサ123は2つの画像群を用いたステレオ方式で被写体距離の計測を行うため、距離情報の取得に適した条件は、撮像時に設定された感度設定の値(ISO値)について定められているものとする。ステレオ方式では、画像をベースに被写体距離を導出しているため、該画像に含まれるノイズの量に応じて計測精度が低減することになる。故に、被写体領域特定部404は、撮像時に設定されていたISO値が、撮像画像に現れるノイズ量が少ないISO値の上限値として定められた第1の閾値ISOth1を下回るか否かに基づいて、本ステップの判断を行う。被写体領域特定部404は、距離情報の取得に適した条件で対象画像の撮像が行われた(ISO値<ISOth1)と判断した場合は処理をS802に移し、行われていないと判断した場合は処理をS804に移す。
S802で、被写体領域特定部404は、対象画像の状態と対象画像に係る被写体情報とを参照し、撮像が行われたシーンが、距離情報の取得に適した条件であったか否かを判断する。本ステップで行われる判断は、S801とは異なり、距離情報に基づかずに行われる。
ステレオ方式で導出される被写体距離の計測精度は、計測に用いられた2つの画像に含まれるノイズ量によっても変化するが、画像間で同一の被写体に係る像(パターン)の検出精度にも影響を受ける。同一の被写体に係るパターンの検出精度は、画像内に含まれる特徴パターンの分布に起因するものであるため、撮像画像のコントラスト比が低い場合には低下することになる。従って、対象画像において低コントラストの領域が広いほど、距離情報の取得に適していない撮像シーンということになる。また人物の顔面のように、同系色(肌の色)の画素が広く占有している領域も、撮像画像中に現れる像の大きさによっては、コントラスト比が低い領域となり得る。即ち、撮像画像に顔領域が広く分布するような大きさで撮像されている場合、同系色の画素が多く特徴パターンを抽出しづらいため、同一の被写体に係るパターンの検出精度も低下し得る。また反対に、撮像画像において顔領域が小さく撮像されている場合は、特徴パターンが密集することになり、その判別がつきにくくなる可能性もあり、やはり、同一の被写体に係るパターンの検出精度も低下し得る。
故に、被写体領域特定部404は、対象画像中に占める低コントラストの領域の割合が閾値を下回っており、かつ、検出された顔領域の大きさが所定の面積範囲(小さすぎず、大きすぎない)に収まっているか否かに基づいて、本ステップの判断を行う。低コントラストの領域の割合に係る閾値や、検出された顔領域の大きさの面積範囲の情報は、例えば種々のシーンでの被写体距離の計測を行うことで実験的に導出されるものであってよい。被写体領域特定部404は、対象画像の撮像が行われたシーンが距離情報の取得に適した条件であったと判断された場合は処理をS803に移し、適していない条件であったと判断された場合は処理をS805に移す。
S803で、被写体領域特定部404は、距離情報のみに基づいて被写体領域マップ(mapK)を生成する。具体的にはまず、距離導出部403が、撮像設定の情報と距離情報とに基づいて、各画素が被写体距離K(該画素の被写体と例えばレンズ主点や撮像素子の撮像面との距離)を示す2次元情報であるセンサ距離マップを生成する。そして被写体領域特定部404は、該距離マップの各画素の画素値Kの二乗の逆数をビット幅で正規化した値を、被写体距離により重み付けすることで、被写体領域マップ(mapK:第1の被写体領域)を生成する。即ち、本ステップにおいて生成される被写体領域マップは、信頼度の高い撮像画像に基づいて距離情報が導出されたものであるため、該マップの被写体の存在する領域の画素値には、距離情報に基づく値が格納される。なお、本実施形態では本ステップに至った場合に、距離情報のみに基づいて被写体領域マップを生成するものとして説明するが、距離情報を優先的に用いて被写体領域マップを生成するものとしてもよい。
一方、S801において、距離情報の取得に適した条件で対象画像の撮像が行われていないと判断した場合、被写体領域特定部404はS804で、対象画像に係る撮像設定の情報に基づき、参照する距離情報が信頼できない情報であるか否かを判断する。S801と同様に、本ステップの判断は対象画像を撮像時のISO値に基づいて行われる。より詳しくは被写体領域特定部404は、対象画像の撮像時に設定されていたISO値が、距離情報が信頼できるものとして判断するための上限である第2の閾値ISOth2(ISOth1<ISOth2)を上回るか否かにより、本ステップの判断を行う。被写体領域特定部404は、距離情報が信頼できない情報である(ISO値>ISOth2)と判断した場合は処理をS805に移し、処理において参照可能な程度の信頼度を有する情報であると判断した場合は処理をS806に移す。
S805で、被写体領域特定部404は、距離情報が信頼できない情報であるため、距離情報を用いず、被写体情報のみに基づいて被写体領域マップ(mapK:第2の被写体領域)を生成する。即ち、被写体領域特定部404は、被写体情報に含まれる、対象画像中の、被写体の人数、顔の大きさ、位置等の情報に基づき、被写体(人物)の存在する領域と存在しない領域とを決定する。
このとき、被写体の存在する領域は、例えば検出された顔もしくは顔を構成する器官の像位置を基準に定められた、所定の形状の領域として構成されるものであってよい。本実施形態では、人物撮像においては顔の下に胴体がある可能性が高いという推定の下、例えば、図9に示すようなモデルを用いて被写体の存在する領域を推定する方法を採用する。図9は、人物の形状を示すモデルであり、顔部分と胴体部分からなる。被写体領域特定部404は、図9のモデルの顔部分を、検出された顔もしくは顔を構成する器官の像位置と合致させるようにモデルを変形させる。そして、この変形後のモデルで表される領域が、被写体の存在する領域として決定される。
そして被写体領域特定部404は、被写体の存在しない領域は背景であるものとして無限遠の距離に対応する値を格納し、被写体の存在する領域は近景であるものとして予め定められた距離を割り当て、S803と同様に被写体領域マップを生成する。即ち、被写体領域特定部404は、モデルで表される全域に同じ距離を割り当てて被写体領域マップを形成するものとする。つまり、被写体領域マップにおいて、被写体領域内の距離はすべて同一となる。結果として、本ステップにおいて生成される被写体領域マップは、被写体検出に基づいた重み付けを示す値が各画素に格納されている。またこのとき、モデルに距離の重みづけ(例えば顔部分の重みを1、胴体部分の重みを0.9)を設定し、被写体領域内でも部位ごとに重みが異なるよう構成してもよい。
なお、本実施形態では本ステップに至った場合に、被写体情報のみに基づいて被写体領域マップを生成するものとして説明するが、被写体情報を優先的に用いて被写体領域マップを生成するものとしてもよい。
一方、S804において距離情報が参照可能な程度の信頼度を有する情報であると判断した場合、被写体領域特定部404はS806において、距離情報と被写体情報とに基づいて被写体領域マップ(mapK)を生成する。本ステップにおける被写体領域マップの生成は、S803において距離情報のみに基づいて生成する被写体領域マップと、S805において被写体情報のみに基づいて生成する被写体領域マップとを重み付け加算して合成することで得られるものとする。例えば被写体領域特定部404は、対象画像を撮像時のISO値に応じて、これらの被写体領域マップの重み付け加算をするものであってよい。例えば、撮像時のISO値がISOth1に近いほど、被写体情報に基づいて導出された画素値よりも、距離情報(距離マップ)に基づいて導出された画素値に対する重み付け高くして合算し、被写体領域マップを構成してもよい。反対に、例えば撮像時のISO値がISOth2に近いほど、距離情報に基づいて導出された画素値よりも、被写体情報に基づいて導出された画素値に対する重み付けを高くして合算し、被写体領域マップを構成してもよい。このように、本実施形態のデジタルカメラ100では、本ステップに至った場合には、被写体領域マップの画素値導出に際して、信頼度に応じてその合成比率(重み付け加算比率)を異ならせるよう制御がなされる。
S807で、法線導出部405は公知の技術を用いて、被写体領域特定部404により生成された被写体領域マップに基づいて、被写体の形状を示す法線マップ(mapN)(形状情報)を生成する。
S808で、光源設定部406は、リライティング処理において適用する仮想光源について、各画素位置から該仮想光源への方向(光源方向)に係る値を格納した仮想光源に係る重み付けマップを生成する。具体的には、光源設定部406はまず、定義する仮想光源について光源方向ベクトル-Lを画素単位で導出し、各座標軸方向に対する方向余弦を取得する。そして、光源設定部406は、画素単位で、取得した方向余弦を任意のビット幅で表現したものを画素値として格納し、仮想光源に係る重み付けマップ(mapL)を構成する。
仮想光源の光源ベクトル-Lの導出に用いる仮想光源のパラメータのうちの位置・強度は、被写体情報構成部208により構成された被写体情報に基づいて、光源設定部406が決定するものであってよい。例えば、被写体の顔領域内の輝度分布が偏っている態様では、光源設定部406は、輝度値の低い領域に仮想光が照射されるよう、仮想光源の位置、強度を決定する。このとき、撮像画像における輝度値の低い領域内の画素の座標が(x1,y1)であるとすると、該位置の被写体による仮想光の反射成分(Ra(x1, y1),Ga(x1, y1),Ba(x1, y1))は、次のようになる。
(数3)
Ra(x1, y1)=α×(-L(x1, y1)・N(x1, y1))/K(x1, y1) 2×Rt
Ga(x1, y1)=α×(-L(x1, y1)・N(x1, y1))/K(x1, y1) 2×Gt
Ba(x1, y1)=α×(-L(x1, y1)・N(x1, y1))/K(x1, y1) 2×Bt
ここで、αは仮想光源の光の強度であり、L(x1, y1)は、座標(x1,y1)の画素の被写体からの仮想光源の光源方向ベクトルである。また、N(x1, y1)は、対応する法線マップの同座標の法線ベクトル、K(x1, y1)は、仮想光源と被写体領域マップの同座標の座標(x1,y1)に対応する被写体上の位置との距離を示す。仮想光を輝度値の低い領域である座標(x1,y1)の被写体に照射するためには、(Ra(x1, y1),Ga(x1, y1),Ba(x1, y1))が正の値となるよう、仮想光源の強さαと被写体との距離K(x1, y1)を制御することになる。また光源設定部406は、仮想光源のパラメータのうちの照射範囲を、検出された顔領域内の輝度分布に基づいて決定する。
なお、仮想光源の強さαを大きくし過ぎた場合に、白飛びや階調反転等の好適でない輝度表現となる可能性がある。このため、光源設定部406は、仮想光源の強さαの値範囲を、仮想光の照射範囲外の領域における輝度値が高い領域の平均輝度値±βとなるよう、所定の閾値βを用いて制御決定する。
このように光源設定部406は仮想光源の位置の範囲、強度の範囲、照射する範囲、を導出し、例えば、その範囲内の平均値を仮想光源の位置、強度、照射範囲として決定するものであってよい。なお、本実施形態では理解を簡潔にすべく、仮想光源は1つ定義されるものとして説明するが、複数の仮想光源を定義してリライティング処理を行うものであってもよいことは言うまでもない。また本実施形態では加算光により、被写体を明るく補正するリライティング処理を行うものとして説明するが、暗く補正する処理のものであってもよい。この場合、仮想光源のゲイン値αをマイナス(減算光)として決定すればよい。
S809で、反射成分導出部407は、仮想光の反射成分(Ra,Ga,Ba)を導出する。反射成分(Ra,Ga,Ba)は、S808において決定されたパラメータを用いて、数1により導出できる。このとき、反射成分導出部407は、得られた被写体領域マップ(mapK)、法線マップ(mapN)、及び仮想光源に係る重み付けマップ(mapL)を用いて、画素単位で数1の演算を実行し、反射成分(Ra,Ga,Ba)を導出する。なお、本実施形態では単純に明度調整に係る拡散反射の色成分を導出するものとして説明するが、仮想光源の種類や被写体の材質を考慮する態様では、さらに鏡面反射の色成分を導出してもよい。
S810で、付加処理部408は、リライティング処理を行う。具体的には付加処理部408は、S809で導出された仮想光の反射成分(Ra,Ga,Ba)を、デガンマ処理部402の出力(Rt,Gt,Bt)に加算することで、リライティング後の画像を生成する。
このようにすることで、本実施形態の画像処理装置は、撮像画像に対応して取得された距離情報と被写体情報とに基づいて、撮像環境や撮像条件に応じた好適なリライティング処理を適用した画像を撮像後に生成することができる。より詳しくは、従前の手法では好適に被写体領域を特定できず、所望のリライティング結果が得られないことがあったが、本実施形態の手法により、状況に応じて距離情報と被写体情報のいずれか、もしくは双方を参照して処理を行うため、所望の結果が得られる。従って、画像処理装置は、撮像条件に応じて好適に被写体領域を特定し、該被写体領域への所望の効果付加を実現することができる。
なお、本実施形態ではリライティング処理を適用する場合の被写体領域の特定方法について説明したが、本発明の実施はこれに限られるものではない。即ち、撮像後に撮像画像中の被写体領域を好適に特定して、任意の付加処理を行うものであれば、本発明は適用可能である。換言すれば、本発明は、距離情報に基づいて被写体領域を特定する方式と、距離情報に基づかずに被写体領域を特定する方式の双方を使用可能に構成された画像処理装置において、距離情報の取得条件に応じて被写体領域の特定方法を異ならせるものであればよい。
また、本実施形態の画像処理装置ではリライティング処理を行うために、被写体形状を推定する法線マップを生成可能なよう、いずれの方式で生成された被写体領域マップであっても、該領域の画素について被写体距離の情報を格納しているものとして説明した。しかしながら本発明の実施はこれに限られるものではなく、被写体形状を考慮する必要がないような付加処理を行う場合は、被写体領域マップは被写体の領域を特定可能な情報が格納されていれば、被写体距離の情報を有している必要はない。
また、本実施形態の画像処理装置では、測距センサ123が2つの撮像画像を用いたステレオ方式で測距を行って距離情報を構成するものとし、被写体領域マップの生成方式を、撮像時に設定されていたISO値に応じて制御するものとして説明した。即ち、距離情報の導出精度をISO値に基づいて判定し、該判定結果に基づいて被写体領域マップの生成に参照する情報を、距離情報、被写体情報のいずれか、または両方を用いるかを決定するものとして説明した。しかしながら、本発明の実施はこれに限られるものではない。例えば、撮像光学系の異なる瞳領域を通過した光束に基づいて複数の被写体像を得、これらの位相差に基づいて距離情報を取得する態様では、撮像時のF値に応じて同制御を行うものとしてもよい。より詳しくは、F値が小さいほど距離情報が取得しやすい構成となるため、このような条件では、距離情報に基づく重み付けの比率を大きくして被写体領域マップを生成するよう制御すればよい。反対に、F値が大きいほど、被写体情報に基づく重み付けの比率を大きくして被写体領域マップを生成するよう制御すればよい。このような態様においても、F値についてISO値と同様に2段階の閾値を設け、F値が1段階目の閾値を下回る場合には距離情報のみに基づいて被写体領域マップを生成するよう構成すればよい。またF値が1段階目の閾値よりも大きい2段階目の閾値を上回る場合には、被写体情報のみに基づいて被写体領域マップを生成するよう構成すればよい。
また本実施形態では、撮像機能を備えた撮像装置であるデジタルカメラ100に、リライティング処理を行う機能が実装されている例について説明したが、本発明の実施がこれに限られるものではないことは容易に理解されよう。本発明は、撮像画像と、撮像時に係る距離情報及び被写体情報を取得可能に構成された装置であれば実施可能であるし、撮像装置と画像処理装置を有する撮像システムを用いても実施可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:デジタルカメラ、50:システム制御部、103:撮像部、105:画像処理部、106:画像メモリ、113:検出部、114:リライティング部、123:測距センサ、208:被写体情報構成部、403:距離導出部、404:被写体領域特定部、405:法線導出部、406:光源設定部、407:反射成分導出部、408:付加処理部

Claims (20)

  1. 撮像画像に対して、所定の被写体が含まれる領域についての画像処理を実行する画像処理装置であって、
    前記撮像画像について、深度方向の被写体距離の分布を示した距離情報、及び前記撮像画像に含まれる前記所定の被写体の検出結果を示した被写体情報を取得する取得手段と、
    前記取得手段により取得された前記距離情報に基づいて、前記撮像画像において所定の距離範囲に存在する被写体の像が分布する第1の被写体領域を特定する第1の特定手段と、
    前記取得手段により取得された前記距離情報に基づかず、前記被写体情報に基づいて、前記撮像画像において前記所定の被写体が検出された領域を含む第2の被写体領域を特定する第2の特定手段と、
    前記第1の被写体領域及び前記第2の被写体領域の少なくともいずれかを参照し、前記画像処理を実行する対象領域を決定する決定手段と、
    を有し、
    前記決定手段は、前記撮像画像の撮像条件及び前記撮像画像の状態の少なくともいずれかに応じて、参照する被写体領域を異ならせる
    ことを特徴とする画像処理装置。
  2. 前記距離情報は、前記撮像画像に基づいて被写体距離の分布が導出されたものであり、
    前記決定手段は、前記撮像画像を撮像時の撮像設定に基づいて、前記撮像画像の撮像条件を判定し、該判定に基づいて参照する被写体領域を異ならせる
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記撮像画像を撮像時の感度設定(ISO値)が第1の閾値を上回る場合に、前記第1の被写体領域に優先して前記第2の被写体領域を参照して前記対象領域を決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記決定手段は、前記撮像画像の撮像時のISO値が、前記第1の閾値よりも低い第2の閾値を上回り、かつ、前記第1の閾値を下回る場合に、前記第1の被写体領域と前記第2の被写体領域とを重み付け合成することで前記対象領域を決定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記決定手段は、前記撮像画像の撮像時のISO値に応じて、前記重み付け合成における前記第1の被写体領域と前記第2の被写体領域との重み付け比率を異ならせることを特徴とする請求項4に記載の画像処理装置。
  6. 前記決定手段は、前記撮像画像の撮像時のISO値が前記第2の閾値に近いほど、前記第1の被写体領域の重み付け比率が前記第2の被写体領域の重み付け比率よりも高くなるよう制御することを特徴とする請求項5に記載の画像処理装置。
  7. 前記決定手段は、前記撮像画像を撮像時のF値が第3の閾値を上回る場合に、前記第1の被写体領域に優先して前記第2の被写体領域を参照して前記対象領域を決定することを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。
  8. 前記決定手段は、前記撮像画像の撮像時のF値が、前記第3の閾値よりも低い第4の閾値を上回り、かつ、前記第3の閾値を下回る場合に、前記第1の被写体領域と前記第2の被写体領域とを重み付け合成することで前記対象領域を決定することを特徴とする請求項7に記載の画像処理装置。
  9. 前記決定手段は、前記撮像画像の撮像時のF値に応じて、前記重み付け合成における前記第1の被写体領域と前記第2の被写体領域との重み付け比率を異ならせることを特徴とする請求項8に記載の画像処理装置。
  10. 前記決定手段は、前記撮像画像の撮像時のF値が前記第4の閾値に近いほど、前記第1の被写体領域の重み付け比率が前記第2の被写体領域の重み付け比率よりも高くなるよう制御することを特徴とする請求項9に記載の画像処理装置。
  11. 前記被写体情報は、前記撮像画像中の前記所定の被写体に係る領域を示す情報を含み、
    前記決定手段は、前記撮像画像のコントラスト比または前記撮像画像における前記所定の被写体に係る領域の大きさに基づいて、前記撮像画像の状態を判定し、該判定に基づいて参照する被写体領域を異ならせる
    ことを特徴とする請求項2乃至10のいずれか1項に記載の画像処理装置。
  12. 前記決定手段は、前記撮像画像のコントラスト比が所定の閾値を下回る場合に、前記第1の被写体領域に優先して前記第2の被写体領域を参照して前記対象領域を決定することを特徴とする請求項11に記載の画像処理装置。
  13. 前記決定手段は、前記撮像画像のコントラスト比が所定の閾値を上回る場合に、前記第2の被写体領域に優先して前記第1の被写体領域を参照して前記対象領域を決定することを特徴とする請求項12に記載の画像処理装置。
  14. 前記決定手段は、前記撮像画像における前記所定の被写体が検出された領域の大きさが所定の大きさ範囲に収まらない場合に、前記第1の被写体領域に優先して前記第2の被写体領域を参照して前記対象領域を決定することを特徴とする請求項11に記載の画像処理装置。
  15. 前記決定手段は、前記撮像画像における前記所定の被写体に係る領域の大きさが所定の大きさ範囲に収まる場合に、前記第2の被写体領域に優先して前記第1の被写体領域を参照して前記対象領域を決定することを特徴とする請求項14に記載の画像処理装置。
  16. 前記画像処理は、前記撮像画像中の、前記決定手段により決定された前記対象領域に含まれる被写体に対し、仮想光源を配置した場合の影響を付加する処理を含み、
    前記画像処理装置は、前記付加する処理を実行する実行手段をさらに有する
    ことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
  17. 前記撮像画像を撮像する撮像手段と、
    請求項1乃至15のいずれか1項に記載の画像処理装置と、
    を有することを特徴とする撮像装置。
  18. 撮像画像に対して、所定の被写体が含まれる領域についての画像処理を実行する画像処理装置の制御方法であって、
    前記撮像画像について、深度方向の被写体距離の分布を示した距離情報、及び前記撮像画像に含まれる前記所定の被写体の検出結果を示した被写体情報を取得する取得工程と、
    前記取得工程において取得された前記距離情報に基づいて、前記撮像画像において所定の距離範囲に存在する被写体の像が分布する第1の被写体領域を特定する第1の特定工程と、
    前記取得工程において取得された前記距離情報に基づかず、前記被写体情報に基づいて、前記撮像画像において前記所定の被写体が検出された領域を含む第2の被写体領域を特定する第2の特定工程と、
    前記第1の被写体領域及び前記第2の被写体領域の少なくともいずれかを参照し、前記画像処理を実行する対象領域を決定する決定工程と、
    を有し、
    前記決定工程において、前記撮像画像の撮像条件及び前記撮像画像の状態の少なくともいずれかに応じて、参照する被写体領域が異なる
    ことを特徴とする画像処理装置の制御方法。
  19. コンピュータを、請求項1乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  20. 撮像画像を出力する撮像装置と、該撮像画像に対して、所定の被写体が含まれる領域についての画像処理を実行する画像処理装置とで構成される撮像システムであって、
    前記画像処理装置は、
    前記撮像画像について、深度方向の被写体距離の分布を示した距離情報、及び前記撮像画像に含まれる前記所定の被写体の検出結果を示した被写体情報を取得する取得手段と、
    前記取得手段により取得された前記距離情報に基づいて、前記撮像画像において所定の距離範囲に存在する被写体の像が分布する第1の被写体領域を特定する第1の特定手段と、
    前記取得手段により取得された前記距離情報に基づかず、前記被写体情報に基づいて、前記撮像画像において前記所定の被写体が検出された領域を含む第2の被写体領域を特定する第2の特定手段と、
    前記第1の被写体領域及び前記第2の被写体領域の少なくともいずれかを参照し、前記画像処理を実行する対象領域を決定する決定手段と、
    を有し、
    前記決定手段は、前記撮像画像の撮像条件及び前記撮像画像の状態の少なくともいずれかに応じて、参照する被写体領域を異ならせる
    ことを特徴とする撮像システム。
JP2019188864A 2019-10-15 2019-10-15 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム Active JP7446080B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019188864A JP7446080B2 (ja) 2019-10-15 2019-10-15 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム
US17/060,176 US11595572B2 (en) 2019-10-15 2020-10-01 Image processing apparatus, image capturing apparatus, control method, and storage medium
EP20199525.5A EP3809690A1 (en) 2019-10-15 2020-10-01 Image processing apparatus, image capturing apparatus, control method, and program
CN202011090861.5A CN112672066B (zh) 2019-10-15 2020-10-13 图像处理设备、图像拍摄设备、控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188864A JP7446080B2 (ja) 2019-10-15 2019-10-15 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム

Publications (2)

Publication Number Publication Date
JP2021064884A JP2021064884A (ja) 2021-04-22
JP7446080B2 true JP7446080B2 (ja) 2024-03-08

Family

ID=72717709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188864A Active JP7446080B2 (ja) 2019-10-15 2019-10-15 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム

Country Status (4)

Country Link
US (1) US11595572B2 (ja)
EP (1) EP3809690A1 (ja)
JP (1) JP7446080B2 (ja)
CN (1) CN112672066B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074362A (ja) 2016-10-28 2018-05-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018107654A (ja) 2016-12-27 2018-07-05 キヤノン株式会社 画像処理装置および画像処理方法、プログラム、記憶媒体
US20190304071A1 (en) 2018-03-30 2019-10-03 Canon Kabushiki Kaisha Image processing apparatus, method for controlling the same, and recording medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4867365B2 (ja) * 2006-01-30 2012-02-01 ソニー株式会社 撮像制御装置、撮像装置および撮像制御方法
JP6412386B2 (ja) 2014-09-26 2018-10-24 キヤノン株式会社 画像処理装置およびその制御方法、プログラムならびに記録媒体
JP6442209B2 (ja) 2014-09-26 2018-12-19 キヤノン株式会社 画像処理装置およびその制御方法
JP6445844B2 (ja) * 2014-11-05 2018-12-26 キヤノン株式会社 撮像装置および撮像装置で実行される方法
JP6593629B2 (ja) * 2015-09-09 2019-10-23 ソニー株式会社 画像処理装置、固体撮像素子、および電子機器
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
US10863103B2 (en) 2018-02-21 2020-12-08 Canon Kabushiki Kaisha Setting apparatus, setting method, and storage medium
US10692276B2 (en) * 2018-05-03 2020-06-23 Adobe Inc. Utilizing an object relighting neural network to generate digital images illuminated from a target lighting direction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074362A (ja) 2016-10-28 2018-05-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018107654A (ja) 2016-12-27 2018-07-05 キヤノン株式会社 画像処理装置および画像処理方法、プログラム、記憶媒体
US20190304071A1 (en) 2018-03-30 2019-10-03 Canon Kabushiki Kaisha Image processing apparatus, method for controlling the same, and recording medium

Also Published As

Publication number Publication date
CN112672066A (zh) 2021-04-16
CN112672066B (zh) 2023-05-12
US11595572B2 (en) 2023-02-28
US20210112198A1 (en) 2021-04-15
EP3809690A1 (en) 2021-04-21
JP2021064884A (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
US20200043225A1 (en) Image processing apparatus and control method thereof
JP6833415B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11893716B2 (en) Image processing apparatus and image processing method, and image capturing apparatus
JP6381404B2 (ja) 画像処理装置及び方法、及び撮像装置
JP6412386B2 (ja) 画像処理装置およびその制御方法、プログラムならびに記録媒体
US10863103B2 (en) Setting apparatus, setting method, and storage medium
CN110324529B (zh) 图像处理设备及其控制方法
JP6718253B2 (ja) 画像処理装置及び画像処理方法
JP2019145097A (ja) 設定装置及び方法、プログラム、記憶媒体
JP6937603B2 (ja) 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
JP2017138927A (ja) 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム
JP7446080B2 (ja) 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム
US11368630B2 (en) Image processing apparatus and image processing method
JP7356255B2 (ja) 画像処理装置及びその処理方法、撮像装置、プログラム、記憶媒体
JP6663246B2 (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
JP2019003694A (ja) 画像処理装置およびその制御方法、ならびにプログラム
JP2021005418A (ja) 画像処理装置およびその制御方法、プログラム
JP2021087125A (ja) 画像処理装置、その制御装置、プログラム
JP2019037004A (ja) 画像処理装置、その制御方法、プログラム
JP2017103685A (ja) 画像処理装置および方法、および撮像装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240227

R151 Written notification of patent or utility model registration

Ref document number: 7446080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151