JP7301683B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7301683B2
JP7301683B2 JP2019165644A JP2019165644A JP7301683B2 JP 7301683 B2 JP7301683 B2 JP 7301683B2 JP 2019165644 A JP2019165644 A JP 2019165644A JP 2019165644 A JP2019165644 A JP 2019165644A JP 7301683 B2 JP7301683 B2 JP 7301683B2
Authority
JP
Japan
Prior art keywords
subject
image data
area
image processing
strobe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019165644A
Other languages
English (en)
Other versions
JP2021044710A (ja
Inventor
有一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019165644A priority Critical patent/JP7301683B2/ja
Priority to US17/015,591 priority patent/US11710343B2/en
Publication of JP2021044710A publication Critical patent/JP2021044710A/ja
Application granted granted Critical
Publication of JP7301683B2 publication Critical patent/JP7301683B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals

Description

本開示の技術は、撮像画像中の被写体の明るさを補正するための画像処理技術に関する。
暗所での撮像では、被写体に当たる光を補うために拡散光を照射するストロボ等の補助光源を利用する場合がある。補助光源を利用した撮像の場合、補助光源から被写体までの距離が長くなるほど光は広く拡散し、被写体に当たる光が減少する。このため、複数の被写体が異なる距離にある場合では、遠くの被写体ほど補助光源からの光の光量が少なくなるため暗く写ってしまう。
このような補助光源を利用した際の被写体の明るさを補正する方法として、被写体までの距離情報を利用して被写体毎の明るさを補正する方法がある。この補正時に利用する被写体までの距離情報を取得するための方法として、特許文献1の画像処理装置で採用されている方法が知られている。特許文献1の画像処理装置では、補助光を照射して撮像して得られた画像データと補助光を照射せずに撮像して得られた画像データとに基づき、被写体の反射特性の影響を除去した画素値を算出する。そして、算出した画素値と光が距離に応じて減衰する特性とに基づき被写体までの距離に関する情報を取得する。
特開2012-85093号公報
しかしながら、特許文献1の画像処理装置では、光沢が発生している被写体に対しては精度よく被写体までの距離に関する情報を取得することが困難である。その結果、光沢が発生している被写体に対しては、明るさの補正の精度が低下するという課題がある。
本開示の技術は、同一シーンに対して、補助光を第1の明るさで点灯させて撮像して得られた第1の画像データと、前記補助光を前記第1の明るさと異なる第2の明るさで点灯させて撮像して得られた第2の画像データとを取得する画像取得手段と、前記第1の画像データ又は前記第2の画像データにおいて複数の被写体に対応する複数の被写体領域を設定する領域設定手段と、前記複数の被写体領域に対して、各被写体領域の反射特性に関する特徴量に基づき前記各被写体領域内から選択領域を選択する領域選択手段と、前記第1の画像データおよび前記第2の画像データにおける前記選択領域の画素値に基づいて、前記第1の画像データの各被写体領域の画素値を補正する補正手段と、を有することを特徴とする画像処理装置である。

本開示の技術は、被写体の反射特性を考慮して、被写体間の距離に応じた被写体の明るさの補正を適切に行うことができる。
実施形態1に係る画像処理装置を備えた撮像装置の外観を示す図である。 実施形態1に係る画像処理装置を備えた撮像装置の内部構成を示す図である。 実施形態1に係る画像処理装置の機能構成および画像処理部208と接続される構成を示すブロック図である。 実施形態1に係る画像処理装置における処理の手順を示すフローチャートである。 実施形態1に係る画像データの例を示す図である。 実施形態1に係る被写体領域の例を示す図である。 実施形態1に係る特徴量取得処理の概要を示す図である。 実施形態1に係る領域選択処理の概要を示す図である。 実施形態1に係る補助光到達率推定処理の手順を示すフローチャートである。 実施形態1に係る補正処理の手順を示すフローチャートである。 実施形態1に係る補正処理の概要を示す図である。 実施形態2に係る被写体領域の例を示す図である。 実施形態2に係る特徴量取得処理の流れを示す図である。 実施形態2に係る特徴量取得処理の概要を示す図である。 実施形態2に係る領域選択処理の概要を示す図である。 実施形態2に係る補正委処理の概要を示す図である。 実施形態3に係る特徴量取得処理の流れを示す図である。 実施形態3に係る特徴量取得処理の概要を示す図である。 実施形態3に係る領域選択処理の概要を示す図である。 実施形態4に係る補助光到達率推定処理の流れを示す図である。 実施形態4に係る位置合わせ処理の概要を示す図である。
<撮像装置の外観>
図1は、本開示の技術の実施形態に係る画像処理装置を備えた撮像装置の外観を示す図であり、図1(a)は撮像装置の前面を示し、図1(b)は背面の外観を示している。撮像装置101は、光学部102、撮像ボタン103、補助光源であるストロボ104、距離画像取得部105、表示部106、及び操作ボタン107を備える。
光学部102は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、及びシャッターによって構成される鏡筒であり、被写体からの光を集光する。
撮像ボタン103は、主にユーザが撮像の開始を撮像装置101に指示するためのボタンである。加えて、撮像ボタン103は、操作ボタン107のように各種設定を行うためのボタンの1つとしても用いることができる。
ストロボ104は、撮像の開始に合わせて発光させることができる照明である。図1では撮像装置101に内蔵されているが、外付けであってもよく、撮像ボタン103による撮像の開始の指示に連動して動作するものであれば撮像装置101に取り付けられていなくてもよい。
距離画像取得部105は、撮像指示に応じて被写体の距離画像データを取得する。ここで、距離画像データとは、画像の各画素の画素値として、その画素に対応する被写体までの距離を示す距離情報を格納した画像データのことを意味する。距離画像取得部105は、赤外光を発光する赤外発光部と、被写体で反射した赤外光を受光する受光部とを備える。距離画像取得部105は、赤外発光部から出射された赤外光が被写体で反射し、その反射光を受光部で受光するまでの時間に基づき、撮像装置101から被写体までの距離値を算出する。そして、算出した距離値と受光部のセンサ画素数や画角等を含む距離撮像情報に基づいて、被写体の位置情報を算出し、距離画像データを生成する。
なお、距離画像データの取得方法は、必ずしもこれに限らない。したがって、例えば、距離画像取得部105の代わりに光学部102と同様の光学系を設け、異なる2つの視点から撮像された画像データ間の視差に基づいて、三角測量を行うことにより距離画像データを取得してもよい。また後述するように、被写体に対応する画素領域である被写体領域を抽出するために距離画像データを用いない場合は、距離画像取得部105を省いてもよい。
表示部106は、撮像装置101にて処理された画像データや他の各種データを表示する、液晶ディスプレイ等の表示装置である。なお、図1の例に示すように、撮像装置101は光学ファインダを備えていないので、フレーミング操作(ピントや構図の確認)は表示部106を用いて行われる。即ち、撮像装置101に関して、表示部106においてライブビュー画像を確認しながら撮像が行われるので、フレーミングやフォーカシングの操作が行われるとき、表示部106は、電子ファインダとしても機能する。その他、表示部106では、カメラ設定メニューや現像パラメータ設定画面等も表示する。
操作ボタン107は、撮像装置101の動作モードの切り換え操作や、撮像パラメータ等をユーザが撮像装置101に指示するためのボタンである。なお、撮像装置101は、動作モードの1つとして、ストロボ104を点灯させた撮像とストロボ104を消灯させた撮像を連続して行うストロボ撮像モードを備える。また、撮像装置101は、動作モードの1つとして、ストロボ104から被写体までの距離に応じた被写体の明るさの違いを補正する補正処理モードを備える。そのため、ユーザは、操作ボタン107又は撮像ボタン103を用いて、補正処理モードへの切り替え、補正処理に用いるパラメータの設定を行うことができる。
その他、表示部106は、タッチスクリーン機能を備えていてもよく、その場合、タッチスクリーンを用いたユーザ指示を操作ボタン107の入力として扱うことも可能である。
<撮像装置101の内部構成>
図2は、本開示の実施形態に係る画像処理装置を備えた撮像装置101の内部構成を示すブロック図である。
CPU201は、各構成の処理の全てに関わり、ROM(Read Only Memory)202や、RAM(Random Access Memory)203に格納された命令を順に読み込み、解釈し、その解釈結果に従って処理を実行する。ROM202は、CPU201により実行されるプログラム等を記憶する。RAM203は、CPU201により実行されるプログラムや各種画像データ等を記憶する。
光学系制御部204は、光学部102に対して、フォーカスを合わせる、シャッターを開く、絞りを調整する等のCPU201から指示された制御を行う制御回路である。
制御部205は、撮像ボタン103や操作ボタン107からのユーザ指示を受取り、撮像、ライティング補正処理モードへの切り換え、照明パラメータの設定等の制御を行う制御回路である。
カラー撮像素子部206は、光学部102にて集光された光情報を電流値に変換する撮像素子を備える。カラー撮像素子部206は、ベイヤ配列等の所定の配列を有するカラーフィルタをさらに備え、カラーフィルタを撮像素子と組み合わせて用いることで光学部102において集光された光から被写体の色情報を取得することができる。
A/D変換部207は、カラー撮像素子部206において検知された輝度情報および色情報を含む画素値をデジタル信号値に変換し、RAW画像データとする処理回路である。なお、本実施形態では、同時刻に撮像した距離画像データとRAW画像データを取得できるものとする。
画像処理部208は、A/D変換部207で取得されたRAW画像データに対して現像処理を行い、各画素がRGB成分に対応する3チャンネルを有するカラー画像データを生成する。また、画像処理部208は、カラー画像データや距離画像データを用いて、カラー画像データにゲイン補正処理を施した補正画像データを生成する。なお、画像処理部208の内部構成及び機能は、後述の図3を用いて詳述する。
キャラクタージェネレーション部209は、文字やグラフィック等を生成する処理回路である。キャラクタージェネレーション部209により生成された文字やグラフィックは、表示部106において、カラー画像データや補正画像データ等に重畳して表示される。
エンコーダ部210は、RAW画像データやカラー画像データ等の各種画像データを所定のファイルフォーマットに変換する。本実施形態では、撮像時の情報等が各種画像データと共に保存されるものとする。
メディアI/F211は、PC/メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカード等)に、画像データを送受信するためのインタフェースである。メディアI/F211としては、例えば、USB(Universal Serial Bus)等が用いられる。メディアI/F211を通じて受信された画像データは、RAM203に記憶され画像処理部208によって各種画像処理されることができる。
システムバス212は、上記構成間でデータを送受信するためのバスである。
<画像処理部の内部構成>
図3は、本実施形態における画像処理装置である画像処理部208の機能構成および画像処理部208と接続される構成を含むブロック図である。本実施形態では、同一シーンに対して、ストロボ104を点灯させて撮像したストロボON画像データと、ストロボ104を消灯させて撮像したストロボOFF画像データとを取得する。ここで同一シーンとは、完全に同一のシーンに限定するものではなく、被写体の形状・配置が僅かに変化していても同一シーンとみなすものとする。そしてそれら2つの画像データと、距離画像データから取得した撮像装置101から各被写体までの距離値とに基づき、被写体毎のストロボ光(補助光)の到達率(補助光到達率)を推定する。そして、推定した被写体毎の補助光到達率に基づき、ストロボON画像データの各被写体に対応する被写体領域の明るさをそれぞれ補正する。
被写体領域設定部301は、RAM203から取得したストロボON画像データに対して、距離画像データおよび制御部205から得られるユーザ操作に基づいて、被写体領域を設定する。
特徴量取得部302は、RAM203から取得したストロボON画像データ等に基づき各被写体に対応する輝度および彩度に基づく光沢情報、鏡面反射率に基づく光沢情報、法線情報等の反射特性に関する特徴量を取得する。
領域選択部は303、特徴量取得部302で取得した特徴量に基づき被写体領域設定部301で設定した被写体領域の一部を選択する。
補助光到達率推定部304は、RAM203から取得したストロボON画像データおよびストロボOFF画像データと領域選択部303で選択された領域に基づき、ストロボ光が各被写体に到達する比率である補助光到達率を推定する。補助光到達率は、ストロボ光が拡散光であるため、ストロボ104と被写体との距離に応じて変化する。
補正処理部305は、補助光到達率推定部304から取得した被写体毎の補助光到達率に基づき、ストロボON画像データに対してゲイン補正処理を施すことにより被写体の明るさを補正した補正画像データを生成する。なお、撮像装置101は、補正画像データをRAM203やPC/メディア213等の記憶装置に出力して記憶することや、表示部106に出力して表示することができる。
<画像処理部の処理フロー>
図4は、本開示の実施形態に係る画像処理装置である画像処理部208における処理の手順を示すフローチャートである。
S401において、画像処理部208は、まず、補正対象のストロボON画像データについて複数の被写体領域r1~rNを選択する。
つぎにS402において、画像処理部208は、選択した複数の被写体領域r1~rNについて、各被写体に対応する光沢情報等の特徴量を取得する。
続いてS403において、画像処理部208は、各被写体領域riについて、取得した特徴量に基づき被写体領域の一部を選択する。
そしてS404において、画像処理部208は、特徴量に基づき選択した各被写体領域riの一部領域について、ストロボON画像データの画素値とストロボOFF画像データの画素値とに基づき各被写体に対応する補助光到達率を推定する。
その後S405において、画像処理部208は、推定した補助光到達率に基づき、ストロボON画像データの各被写体領域riの明るさをそれぞれ補正し、補正画像データを生成する。
最後にS406において、画像処理部208は、補正画像データをRAM203等に出力する。
以下、上記画像処理部208の動作手順の詳細について述べる。
S401において、被写体領域設定部301は、制御部205で取得したユーザ入力およびRAM203から取得した距離画像データに基づき対応する画像データにおける被写体領域riを設定する。まず、本ステップで使用する距離画像データと、対応する画像データおよび被写体について説明する。
図5(a)~(c)に、本実施形態におけるストロボON画像データ501、ストロボOFF画像データ502、距離画像データ503の例を示す。図5(d)は、撮像装置101、被写体A、被写体Bを撮像装置101の光学部102の光軸に直交する方向から見た図である。ストロボON画像データ501の画素x(=(i,j))に対応する画素値はI(x)と表し、画素値としてRGB値が格納されているものとする。ストロボOFF画像データ502についても同様に、画素xに対応する画素値をJ(x)と表すものとする。距離画像データ503の画素xには画素値D(x)として撮像装置101から被写体までの距離値を格納しているものとする。本実施形態では、図5(a)~(d)に示すように、向かって右前に被写体A、左奥に被写体Bが存在するシーンを例として動作手順を述べる。
本S401では、まずユーザが選択した被写体Aおよび被写体Bに対応する少なくとも一画素の位置情報を制御部205より取得する。次に、距離画像データ503に基づき、被写体Aに対応する画素の位置情報に対応する被写体Aと撮像装置101との距離値を被写体距離dAとして取得する。そして、距離画像データ503から被写体距離dAに近い距離値を持つ画素を抽出し被写体領域rAとする。被写体Bについても同様に、距離画像データ503および被写体Bに対応する画素の位置情報に基づき被写体距離dBを取得し、距離画像データ503から被写体距離dBに近い距離値を持つ画素を抽出し被写体領域rBとする。図6(a)に被写体領域rAを白抜きした二値画像データ601、図6(b)に被写体領域rBを白抜きした二値画像データ602を示す。
S402において、特徴量取得部302がRAM203から取得したストロボON画像データ501と被写体領域設定部301で設定した被写体領域rA、rBとに基づいて、ストロボON画像データ501における各被写体領域rA、rBの特徴量を取得する。本実施形態では光沢情報を特徴量として取得する。本実施形態では光沢情報として輝度および彩度に基づく光沢の強い領域(高輝度低彩度領域glsr)を抽出する。高輝度低彩度領域glsrは、RGBの画素値から算出した輝度値と彩度値に対する閾値処理等により抽出することができる。例えば、ストロボON画像データ501の被写体領域に含まれる画素のうち、輝度値が高く所定の閾値以上であり、彩度値が低く所定の閾値以下である画素値を持つ画素からなる領域を光沢領域とする。図7に、高輝度低彩度領域glsrの例を示す。被写体領域rAに対応する高輝度低彩度領域glsAを白抜きした二値画像データ701、被写体領域rBに対応する高輝度低彩度領域glsBを白抜きした二値画像データ702を示す。
S403において、領域選択部303が特徴量取得部302で取得した特徴量に基づき、被写体領域設定部301で設定した被写体領域内から一部の領域を選択する。以下、この選択した領域のことを選択領域という。本実施形態では、特徴量として取得した光沢領域を被写体領域から除外したものを選択領域とする。図8(a)に被写体領域rAを白抜きした二値画像データ601と高輝度低彩度領域glsAを白抜きした二値画像データ701に基づいて取得した選択領域srAを白抜きした二値画像データ801の例を示す。また図8(b)に被写体領域rBを白抜きした二値画像データ602と高輝度低彩度領域glsBを白抜きした二値画像データ702に基づいて取得した選択領域srBを白抜きした二値画像データ802の例を示す。
S404において、補助光到達率推定部304がストロボON画像データ501とストロボOFF画像データ502との選択領域srA、srBを示す二値画像データ801、802とに基づき、ストロボ104が発するストロボ光の補助光到達率を推定する。本ステップでの補助光到達率推定処理の詳細については後述する。
S405において、補正処理部305が、ストロボON画像データ501に対して、被写体毎に推定した補助光到達率に基づき、各被写体に対応する被写体領域rA、rBの明るさをそれぞれ補正し、補正画像データを生成する。本ステップでの補正処理の詳細については後述する。
S406において、補正処理部305が、生成した補正画像データをPC/メディア213に出力し記録する。また、表示部106に補正画像データを出力し表示してもよい。その後、画像処理部208での一連の処理を終了する。
<補助光到達率推定処理>
ここでは、S404で補助光到達率推定部304が行う補助光到達率推定処理について説明する。本実施形態における補助光到達率推定処理では、ストロボON画像データ501とストロボOFF画像データ502の選択領域srA、srBに基づき、被写体毎の補助光到達率を推定する。図9に補助光到達率推定処理の手順を示す。
S901において、補助光到達率推定部304が、撮像シーンの環境光とストロボ光の明るさの比を推定する。本実施形態ではストロボON画像データ501における画素値I(x)とストロボOFF画像データ502における画素値J(x)を、下式(1)のように環境光およびストロボ光の明るさと反射率との積としてモデル化する。
Figure 0007301683000001
ここで、Laは環境光の明るさ、Lsはストロボ光の明るさ、α(x)は画素xに対応する被写体と撮像装置101との距離におけるストロボ光の補助光到達率を表す。R(x)は反射率、βはストロボON画像データ501とストロボOFF画像データ502の露出比を表す。βはストロボON画像データ501とストロボOFF画像データ502の撮像条件等に基づいて設定する。このとき、α(x)は、式(1)から式(2)のように求めることができる。
Figure 0007301683000002
つぎに本実施形態では、基準とする選択領域srtにおけるストロボON画像データ501の平均画素値It_aveと選択領域srtにおけるストロボOFF画像データ502の平均画素値Jt_aveを下式(3)のように求める。
Figure 0007301683000003
ここで、srtは基準選択領域、Mtは基準選択領域srtの画素数である。基準選択領域srtは、複数の被写体A、Bの中から明るさの基準となる基準被写体に対応する選択領域、すなわち選択領域srA、srBのいずれか一方である。本実施形態では、ユーザ操作に基づいて基準被写体を選択する。また、本実施形態では、式(2)に基準被写体の平均画素値It_ave、Jt_aveを適用したときの補助光到達率αを1とすると、式(2)、(3)に基づき環境光の明るさLsとストロボ光の明るさLaの比の近似値ωは、下式(4)のように求まる。
Figure 0007301683000004
S902において、補助光到達率推定部304が、環境光の明るさLsとストロボ光の明るさLaの比を式(4)に基づきωとして、各被写体と撮像装置101との距離におけるストロボ光の補助光到達率α(x)を推定する。補助光到達率推定部304では、補助光到達率α(x)の近似値を式(2)、(4)に基づいて下式(5)のように算出する。
Figure 0007301683000005
以上の処理により、ストロボ光の補助光到達率α(x)を推定することができる。
このように本実施形態では、被写体領域rA、rBから高輝度低彩度領域glsA、glsBをそれぞれ除いた選択領域srA、srBの画素値I(x)、J(x)に基づき、ストロボ104が発するストロボ光の補助光到達率α(x)を算出する。そのため本実施形態では、被写体の光沢の影響を受けずにストロボ光の補助光到達率α(x)を推定することができる。
<補正処理>
ここでは、S405で補正処理部305が行う補正処理について説明する。本実施形態における補正処理では、補正処理部305がストロボON画像データ501と補助光到達率推定部304で推定した補助光到達率α(x)に基づき被写体の明るさをゲイン処理により補正した補正画像データを生成する。図10に補正処理の手順を示す。
S1001において、補正処理部305が、各被写体に対応した、画素値の補正係数であるゲイン値を算出する。i番目の被写体に対応するゲイン値giは、環境光とストロボ光の明るさの比ωおよび補助光到達率α(x)に基づき式(6)に従い算出する。
Figure 0007301683000006
ここで、riはi番目の被写体に対応する被写体領域、Miはriの画素数を示す。次に式(7)に従い、基準選択領域srtを設定した基準被写体のゲイン値gtを利用して各被写体に対応するゲイン値giを補正し、補正ゲイン値g′iを算出する。
Figure 0007301683000007
S1002において、補正処理部305が、補正ゲイン値g′iを利用してストロボON画像データの画素値I(x)の明るさを補正し、補正画素値I′(x)を生成する。補正画素値I′(x)は下式(8)のように求まる。
Figure 0007301683000008
ここで、Ri(x)はi番目の被写体領域を示すマップであり、下式(9)のような値を持つ。
Figure 0007301683000009
以上の処理により、i番目の被写体領域riに対して対応する補正ゲイン値g′iで明るさが補正された補正画像を取得することができる。このように本実施形態では、被写体領域から光沢領域を除いた選択領域を用いて補助光到達率αを求め、求めた補助光到達率αに基づき光沢領域も含む被写体領域に対して補正を行う。
図11に補正画像データ1101の例を示す。被写体領域rA601の補正後の画素値I′(x)(x∈rA)は、g′AI(x)となる。また被写体領域rB602の補正後の画素値I′(x)(x∈rB)は、g′BI(x)となる。また、被写体領域rA601および被写体領域rB602以外の補正後の画素値I′(x)(x∈rA、rB)は、I(x)となる。なお、例えば被写体Aを基準被写体とした場合は、g′A=1となり、被写体領域rA601の補正後の画素値I′(x)(x∈rA)は、I(x)となる。
このように、被写体領域毎に求めた補正ゲイン値g′で画素値を補正することにより、ストロボ光の補助光到達率αが異なる被写体間の明るさの差を小さくすることができる。
以上のように、本開示の実施形態に係る画像処理装置によれば、光沢のある被写体に対しても反射特性情報に基づいて被写体間の距離に応じた被写体毎の明るさの補正を適切に行うことができる。
なお、本実施形態では距離画像データに基づいて被写体領域を抽出しているが、被写体領域の抽出方法はこれに限らない。例えば、ストロボON画像データ501から認識処理を利用して特定の被写体領域を抽出してもかまわない。あるいは、ユーザが被写体領域を指定してもかまわない。このように被写体領域の抽出に距離画像データを使用しない場合は、撮像装置101から被写体までの距離情報である距離画像データは、本開示の画像処理部208での処理において不要である。そのため、距離情報取得手段である距離画像取得部105は省くことができる。
また、本実施形態では光沢情報として被写体の輝度値が高く彩度値が低い画素値を有する領域を抽出しているが、光沢領域の抽出方法はこれに限らない。例えば、光沢情報として被写体の鏡面反射成分を抽出し、鏡面反射成分に対して閾値処理を施して光沢領域を抽出することもできる。この場合は、物体色である拡散反射成分と光源色である鏡面反射成分との線形和で被写体からの反射光を表す二色性反射モデルを利用してストロボON画像データを拡散反射成分と鏡面反射成分に分離する。その後、鏡面反射成分に対して閾値処理を施し、鏡面反射成分が所定の値よりも大きい画素値を有する領域を抽出することで光沢領域が取得できる。
また、本実施形態ではユーザ操作に基づいて選択した基準被写体に基づいて環境光とストロボ光の明るさの比ωを求めているが、ωの求め方はこれに限らない。例えば、最もストロボ光が明るい被写体を基準被写体としてωを算出してもよい。具体的には、まず式(10)に従い、各被写体に対応する選択領域sriに基づいてωiを算出する。
Figure 0007301683000010
そして、式(11)に従いωiの最大値をωとして利用すればよい。
Figure 0007301683000011
また、本実施形態ではゲイン値giを式(7)に従い補正ゲイン値g′iを利用しているが、式(6)のゲイン値giをそのまま補正せずに利用してもかまわない。
以上の処理により、最もストロボ光が明るい被写体を基準被写体とすることができる。
なお、本実施形態では、S401において被写体の位置情報をユーザ入力に基づき取得したが、画像処理部208により顔等、特定の形状を検出し、検出した特定の形状を含む領域を被写体の位置情報として取得するようにしてもよい。
[第2実施形態]
第1実施形態では特徴量として取得した光沢情報に基づいて被写体領域から選択領域を抽出していたが、本実施形態では特徴量として取得した被写体の鏡面反射特性情報に基づいて被写体領域から選択領域を抽出する。なお、本実施形態では被写体が人物の場合を例に説明をする。
図12(a)に本実施形態におけるストロボON画像データ1201およびストロボOFF画像データ1202を示す。また、図12(b)に本実施形態における被写体Aの被写体領域rA1203および被写体Bの被写体領域rB1204を示す。本実施形態では第1実施形態と比較して、S402で特徴量取得部302が行う特徴量取得処理と、S403で領域選択部303が行う領域選択処理が異なる。以下、各処理について説明する。
<第2実施形態における特徴量取得処理>
ここでは、本実施形態においてS402で特徴量取得部302が行う特徴量取得処理について説明する。本実施形態における特徴量取得処理では、ストロボON画像データ1201内の顔情報に基づき被写体の低鏡面反射領域gmrを取得する。図13に、第2実施形態における特徴量取得処理の手順を示す。
S1301において、特徴量取得部302が、ストロボON画像データ1201から各被写体に対応する顔情報を取得する。なお、本実施形態の顔情報には目、鼻、口等の顔器官の位置情報を含むものとする。顔情報の取得には、例えばテンプレートマッチングや、Haar-Like特徴量を用いたアルゴリズム等を利用することができる。
S1302において、特徴量取得部302がS1301で取得した各被写体の顔情報に基づいてストロボON画像データ1201に対応する鏡面反射特性マップを生成する。本実施形態における鏡面反射特性マップは、顔鏡面反射特性テンプレートをストロボON画像データ1201から取得した顔情報に基づいて位置合わせすることによって取得する。
図14(a)、(b)に、顔鏡面反射特性テンプレート1401と鏡面反射特性マップ1402の例をそれぞれ示す。顔鏡面反射特性テンプレート1401は、雛形となる顔の鏡面反射特性を表す鏡面反射率を画素値として持つ画像データである。また、顔鏡面反射特性テンプレート1401における目、鼻、口等の顔器官の位置情報を保持しているものとする。本実施形態では顔の鏡面反射率を画素値として持っているものとする。例えば、髪、目、鼻、口領域に対応する画素は高い鏡面反射率を画素値として持ち、それ以外の肌領域に対応する画素は低い鏡面反射率を画素値として持つ。
本ステップS1302では、まずストロボON画像データ1201に含まれる各被写体の顔器官の位置情報と、顔鏡面反射特性テンプレート1401の対応する顔器官の位置情報とを対応付ける。次に、対応付けた位置情報に基づき、顔鏡面反射特性テンプレート1401をストロボON画像データ1201に含まれる各被写体の顔の画像に応じた形状に変換させるための変換パラメータを算出する。変換パラメータとしては射影変換パラメータあるいはアフィン変換パラメータ等が利用できる。そして、算出した変換パラメータに基づいて各被写体の顔の画像の形状に合うように顔鏡面反射特性テンプレート1401を変形させ、各被写体に対応する顔鏡面反射特性テンプレート1401を合成することによって鏡面反射特性マップ1402を生成する。
S1303において、特徴量取得部302が、S1302で取得した鏡面反射特性マップ1402に基づいて低鏡面反射領域gmrを抽出する。ここでは、閾値処理により鏡面反射特性マップ1402から画素値(鏡面反射率)の小さな画素を抽出することにより、所定の鏡面反射率よりも小さな低鏡面反射領域gmrを抽出する。図14(c)に低鏡面反射領域gmrを白抜きした二値画像データ1403の例を示す。
<第2実施形態における領域選択処理>
ここでは、本実施形態においてS403で領域選択部303が行う領域選択処理について説明する。本実施形態における領域選択処理では、低鏡面反射領域gmrを白抜きした二値画像データ1403に基づき各被写体領域rA、rBのうち、低鏡面反射領域gmrに含まれる画素のみを選択領域とする。
図15(a)に、被写体領域rAを白抜きした二値画像データ1203と低鏡面反射領域gmrを白抜きした二値画像データ1403に基づいて取得した選択領域srAを白抜きした二値画像データ1501の例を示す。また図15(b)に、被写体領域rBを白抜きした二値画像データ1204と低鏡面反射領域gmrを白抜きした二値画像データ1403に基づいて取得した選択領域srBを白抜きした二値画像データ1502の例をそれぞれ示す。
以上の処理により、被写体の鏡面反射特性情報、すなわち二値画像データ1501、1502に基づいて、ストロボON画像データ1201の被写体領域rA、rBの低鏡面反射領域gmrを選択することができる。図16に、本選択領域srA、srBに基づいて被写体の明るさが補正された補正画像データ1601の例を示す。
以上のように、本開示の実施形態に係る画像処理装置によれば、光沢のある被写体に対しても被写体の反射特性情報に基づき被写体間の距離に応じた被写体毎の明るさの補正を適切に行うことができる。
なお、被写体領域の設定は、顔検出結果に基づいて画像処理部208が適当な領域を設定してもかまわない。例えば、図12(c)に示すように顔情報に基づき、顔器官に合わせて設定した適当な円形の領域を被写体領域rA、rBとしてもよい。または実施形態1と同様に、ユーザ入力に基づき被写体領域を選択してもよい。
また、本実施形態では領域選択処理に置いて低鏡面反射領域gmrのみを選択領域srとしているが、第1実施形態で使用した高輝度低彩度領域glsrも選択領域srに含めてもかまわない。この場合、特徴量取得処理において、低鏡面反射領域gmrに加え、第1実施形態と同様の方法で高輝度低彩度領域glsrも取得する。そして、領域選択処理では被写体領域rおよび低鏡面反射領域gmrに含まれ、高輝度低彩度領域glsrに含まれない画素を選択領域srとすればよい。
[第3実施形態]
これまで述べた実施形態では特徴量として所得した光沢情報あるいは反射特性情報に基づいて被写体領域rA、rBから選択領域srA、srBを抽出していた。これに対し本実施形態では、特徴量として取得した被写体の形状情報に基づき被写体領域から選択領域を抽出する。
これまでの実施形態では式(4)に従い環境光とストロボ光の明るさの比ωを推定してきた。しかしながら、この方法では被写体の形状に基づく陰影の影響を考慮していない。撮像装置101に向いていない表面では、その表面での反射光のうち光学部102に入射する光が減少して陰が発生する。そのため、被写体に撮像装置101に向いていない表面が多く、陰が多く発生している場合、環境光とストロボ光の明るさの比ωの推定精度が低下する。
そこで本実施形態では、被写体の形状情報を利用し、撮像装置101に対して正面に近い向き、すなわち被写体表面の法線と撮像装置101の撮像方向とのなす角度が所定の範囲以内の領域を選択する。これにより、被写体形状に応じて発生する陰影に起因した推定精度の低下を抑制することができる。本実施形態では第2実施形態と比較して、S402で特徴量取得部302が行う特徴量取得処理と、S403で領域選択部303が行う領域選択処理が異なる。以下、各処理について説明する。
<第3実施形態における特徴量取得処理>
ここでは、本実施形態においてS402で特徴量取得部302が行う特徴量取得処理について説明する。本実施形態における特徴量取得処理では、ストロボON画像データ1201内の顔情報に基づき被写体の低鏡面反射領域gmrと正面領域frを取得する。図17に、第3実施形態における特徴量取得処理の手順を示す。なお、S1701からS1703までは第2実施形態で説明したS1301からS1303までと同一のため説明を省略する。
S1704において、特徴量取得部302が、S17101で取得した各被写体の顔情報に基づいてストロボON画像データ1201に対応する法線マップを生成する。本実施形態では、予め雛形となる顔の三次元形状に基づき生成した顔法線テンプレートをストロボON画像データ1201中の顔に当てはめることで各被写体に対応した法線マップを生成する。
図18(a)、(b)に、顔法線テンプレート1801と法線マップ1802の例を示す。顔法線テンプレートは、雛形となる顔の三次元形状の所定の位置からの見えに対応した顔の二次元形状を構成する画素を含む画像データである。この顔法線テンプレートの画像データは、顔を構成する各画素が、各画素に対応する顔の三次元形状上の位置の法線ベクトルを画素値として持つ。また、顔法線テンプレートにおける目、鼻、口等の顔器官の位置情報を保持しているものとする。
本ステップS1704では、まずストロボON画像データ1201に含まれる各被写体の顔器官の位置情報と、顔法線テンプレート1801の対応する顔器官の位置情報とを対応付ける。次に、対応付けた位置情報に基づき、顔法線テンプレート1801をストロボON画像データ1201に含まれる各被写体の顔の画像に応じた形状に変換させるための変換パラメータを算出する。変換パラメータとしては射影変換パラメータあるいはアフィン変換パラメータ等が利用できる。そして、算出した変換パラメータに基づいて各被写体の顔の画像の形状に対応するように顔法線テンプレート1801を変形させ、各被写体に対応する顔法線テンプレート1801を合成することによって法線マップ1802を生成する。
S1705において、特徴量取得部302が、被写体毎に、対応する法線マップ1802に基づき撮像装置101に対して正面に近い向きを示す法線ベクトルを持つ正面領域frを抽出する。具体的には、撮像装置101の撮像方向である光学部102の光軸ベクトルと法線マップの各画素の法線ベクトルとの内積が、閾値以上となる画素を正面領域frとして抽出する。図18(c)に、抽出した正面領域frを白抜きした二値画像データ1803の例を示す。
<第3実施形態における領域選択処理>
ここでは、本実施形態においてS403で領域選択部303が行う領域選択処理について説明する。本実施形態における領域選択処理では、低鏡面反射領域gmrの二値画像データ1403と正面領域frの二値画像データ1803に基づき、各被写体領域rA、rBのうち低鏡面反射領域gmrかつ正面領域frを選択領域srA、srBとする。図19(a)に、被写体領域rAの二値画像データ1203と低鏡面反射領域gmrの二値画像データ1403と正面領域frの二値画像データ1803に基づいて取得した選択領域srAを白抜きした二値画像データ1901の例を示す。また、図19(b)に、被写体領域rBの二値画像データ1204と低鏡面反射領域gmrの二値画像データ1403と正面領域frのた二値画像データ1803に基づいて取得した選択領域srBを白抜きした二値画像データ1902の例を示す。
なお、本実施形態では顔法線テンプレート1801を1つだけ用意していたが、顔の向きが異なる複数の顔法線テンプレート1801を複数用意しておいてもかまわない。この場合、S1704において、被写体の顔の向きに合った顔法線テンプレート1801を選択することができる。選択方法としては、例えば顔器官の位置情報に基づいて変換パラメータを算出する際に生じる誤差の値を各顔法線テンプレート1801で算出し、誤差が最も小さなものを選択すればよい。あるいは、被写体の顔器官の座標から顔の向きを推定し、最も顔の向きが近い顔法線テンプレート1801を選択してもよい。
また、本実施形態では法線情報を取得するために顔法線テンプレート1801を利用していたが、被写体の顔器官の位置情報に基づいて顔の三次元形状を当てはめ、当てはめた三次元形状から法線情報を取得してもかまわない。
以上のように、本開示の実施形態に係る画像処理装置によれば、光沢のある被写体に対しても被写体の反射特性情報に基づき被写体間の距離に応じた被写体毎の明るさの補正を適切に行うことができる。
[第4実施形態]
これまで述べた実施形態ではストロボON画像データ1201とストロボOFF画像データ1202とにおいて被写体の位置ずれがないものとして説明をしてきた。しかしながら、実際に撮像を行う場合は撮像装置101のぶれや被写体の動き等により、ストロボON画像データ1201とストロボOFF画像データ1202とにおいて被写体の位置がずれることがある。本実施形態では、補助光到達率推定処理において選択領域srA、srBに基づきストロボON画像データ1201とストロボOFF画像データ1202の位置合わせを行うことにより、被写体の位置ずれの影響を抑制する。本実施形態ではこれまでの実施形態と比較して、S404で補助光到達率推定部304が行う補助光到達率推定処理が異なる。以下、本実施形態における補助光到達率推定処理について説明する。
<第4実施形態における補助光到達率推定処理>
ここでは、本実施形態においてS404で補助光到達率推定部304が行う補助光到達率推定処理について説明する。図20に、第4実施形態における補助光到達率推定処理の手順を示す。本実施形態における補助光到達率推定処理では、まずS2001においてストロボON画像データとストロボOFF画像データの位置合わせを行う。その後、S2002、S2003において実施形態1のS901、S902と同様の処理で各被写体と撮像装置101との距離におけるストロボ104が発するストロボ光の補助光到達率α(x)を推定する。以下、S2002、S2003は説明を省略し、S2001の処理についてのみ述べる。
図21は、S2001における位置合わせ処理の概要を示す図である。本ステップでは被写体の位置ずれがあるストロボON画像データ2101とストロボOFF画像データ2102を、各被写体の選択領域srA、srBに基づいて被写体毎に位置合わせする。この際、各被写体の選択領域srA、srBの周辺が一致するように優先的に位置合わせを行う。
位置合わせ処理としては、例えばエッジ情報に基づくテンプレートマッチングや、エッジやコーナー等の特徴点の対応付けに基づく幾何変換処理等が利用できる。エッジ情報に基づくテンプレートマッチングを利用する場合、まずストロボON画像データ2101とストロボOFF画像データ2102とに対し、それぞれハイパスフィルタ等を利用してエッジ抽出を行う。そして、ストロボON画像データ2101のエッジに対して選択領域srA、srBからの距離に基づいて重みづけを行い、これをテンプレートとする。この際、選択領域srA、srBからの距離が遠いほど小さな重みとする。
このテンプレートを利用してストロボOFF画像データ2102のエッジとマッチングを行い、ストロボON画像データ2101とストロボOFF画像データ2102との被写体の位置ずれ量を計算する。そして、算出した位置ずれ量が最小になる位置にストロボOFF画像データ2102を補正して補正ストロボOFF画像データを生成する。重みの小さなエッジはマッチング処理において影響が小さくなるため、重みの大きな選択領域srA、srBを優先的に位置合わせすることができる。
図21に、被写体Aに合わせて位置ずれを補正した補正ストロボOFF画像データ2103と、被写体Bに合わせて位置ずれを補正した補正ストロボOFF画像データ2104の例を示す。
以降の処理では、ストロボON画像データ2101と補正ストロボOFF画像データ2103、2104を利用して補助光到達率の推定を行う。すなわち、被写体Aに対する補助光到達率推定処理にはストロボOFF画像データとして補正ストロボOFF画像データ2103を用いる。また被写体Bに対する補助光到達率推定処理にはストロボOFF画像データとして補正ストロボOFF画像データ2104を用いる。これにより、被写体の位置ずれに起因する推定誤差を抑制することができる。
以上のように、本開示の実施形態に係る画像処理装置によれば、ストロボON画像データとストロボOFF画像データとに被写体の位置ずれがある場合においても、反射特性情報に基づき被写体間の距離に応じた被写体の明るさの補正を適切に行うことができる。
なお、上記実施形態では、ストロボON画像データに対して補正を行っているが、ストロボOFF画像データに対して補正を行ってもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 撮像装置
104 ストロボ
208 画像処理部

Claims (15)

  1. 同一シーンに対して、補助光を点灯させて撮像して得られた第1の画像データと、前記補助光を点灯させずに撮像して得られた第2の画像データとを取得する画像取得手段と、
    前記第1の画像データ又は前記第2の画像データにおいて複数の被写体に対応する複数の被写体領域を設定する領域設定手段と、
    前記複数の被写体領域に対して、各被写体領域の反射特性に関する特徴量に基づき前記各被写体領域内から選択領域を選択する領域選択手段と、
    前記第1の画像データおよび前記第2の画像データにおける前記選択領域の画素値に基づいて、前記第1の画像データの各被写体領域の画素値を補正する補正手段と、
    を有することを特徴とする画像処理装置。
  2. 前記補正手段は、前記補助光の光源と前記被写体との間の距離に応じて変化する補正係数に基づき前記各被写体領域の画素値を補正する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記補正手段は、前記第1の画像データと前記第2の画像データとの対応する前記選択領域の画素値の明るさの比を取得し、前記明るさの比の前記被写体領域の間での差を小さくするように前記各被写体領域の画素値を補正する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記補正手段は、前記各被写体領域の画素値を、前記複数の被写体領域のうちの1つの前記明るさの比に近づけるように補正する
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記領域選択手段は、前記被写体の光沢の強さを前記特徴量とし、前記被写体領域のうち前記光沢の強さが所定の閾値以下である領域を前記選択領域として選択する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記領域選択手段は、前記被写体の輝度値および彩度値を前記特徴量とし、前記輝度値が第1の閾値以上であり、かつ前記彩度値が第2の閾値以下である画素値の領域を前記選択領域として選択する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記領域選択手段は、前記被写体の鏡面反射率を前記特徴量とし、前記鏡面反射率が所定の閾値以下の画素値の領域を前記選択領域として選択する
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 前記領域選択手段は、前記被写体の少なくとも一部の形状に対応する鏡面反射率を画素値として有する鏡面反射特性テンプレートを有し、前記鏡面反射特性テンプレートを前記第1の画像データ又は前記第2の画像データにおける前記被写体の少なくとも一部に適用することにより前記被写体の鏡面反射率を取得する
    ことを特徴とする請求項7に記載の画像処理装置。
  9. 前記領域選択手段は、前記被写体の法線情報を前記特徴量とし、前記被写体の表面の法線と前記第1の画像データおよび前記第2の画像データの撮像方向とのなす角度が所定の範囲以内である領域を前記選択領域として選択する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  10. 前記領域選択手段は、前記被写体の少なくとも一部の形状に対応する法線情報を画素値として有する法線テンプレートを有し、前記法線テンプレートを前記第1の画像データ又は前記第2の画像データにおける前記被写体の少なくとも一部に適用することにより前記被写体の法線情報を取得する
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記第1の画像データの前記選択領域とそれに対応する前記第2の画像データの前記選択領域とを位置合わせする位置合わせ手段をさらに備え、
    前記補正手段は、位置合わせされた前記選択領域の画素値に基づき、前記各被写体領域の画素値を補正する
    ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記被写体間の距離に関する距離情報を取得する距離情報取得手段をさらに備え、
    前記領域設定手段は、前記距離情報に基づき前記被写体領域を設定する
    ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記領域設定手段は、前記被写体の特定の形状を検出し、検出した前記特定の形状を含む領域を前記被写体領域として設定する
    ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 同一シーンに対して、補助光を第1の明るさで点灯させて撮像された第1の画像データと、前記補助光を前記第1の明るさと異なる第2の明るさで点灯させて撮像された第2の画像データとを取得するステップと、
    前記第1の画像データ又は前記第2の画像データにおいて複数の被写体領域を設定するステップと、
    前記複数の被写体領域に対して、各被写体領域の反射特性に関する特徴量に基づき前記各被写体領域内から選択領域を選択するステップと、
    前記第1の画像データおよび前記第2の画像データにおける前記選択領域の画素値に基づいて、前記第1の画像データの各被写体領域の画素値を補正するステップと、
    を有することを特徴とする画像処理方法
  15. コンピュータを請求項1乃至13のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2019165644A 2019-09-11 2019-09-11 画像処理装置、画像処理方法、およびプログラム Active JP7301683B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019165644A JP7301683B2 (ja) 2019-09-11 2019-09-11 画像処理装置、画像処理方法、およびプログラム
US17/015,591 US11710343B2 (en) 2019-09-11 2020-09-09 Image processing device, image processing method, and storage medium for correcting brightness

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165644A JP7301683B2 (ja) 2019-09-11 2019-09-11 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021044710A JP2021044710A (ja) 2021-03-18
JP7301683B2 true JP7301683B2 (ja) 2023-07-03

Family

ID=74849650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165644A Active JP7301683B2 (ja) 2019-09-11 2019-09-11 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11710343B2 (ja)
JP (1) JP7301683B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866373B (zh) * 2020-06-19 2021-12-28 北京小米移动软件有限公司 一种显示拍摄预览图像的方法、装置及介质
US11381730B2 (en) * 2020-06-25 2022-07-05 Qualcomm Incorporated Feature-based image autofocus
JP2022019359A (ja) 2020-07-17 2022-01-27 キヤノン株式会社 画像処理装置、画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219264A (ja) 2002-01-22 2003-07-31 Fuji Photo Film Co Ltd 撮像装置、撮像方法、及びプログラム
JP2019062436A (ja) 2017-09-27 2019-04-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3992720B2 (ja) * 2005-10-04 2007-10-17 三菱電機株式会社 画像補正装置、画像補正方法、プログラム、及び記録媒体
JP2012085093A (ja) 2010-10-12 2012-04-26 Panasonic Corp 撮像装置および取得方法
JP6196832B2 (ja) * 2013-07-25 2017-09-13 オリンパス株式会社 画像処理装置、画像処理方法、顕微鏡システム及び画像処理プログラム
US10885610B2 (en) * 2016-03-31 2021-01-05 Nikon Corporation Image device, image processing device, and electronic apparatus
JP6685827B2 (ja) 2016-05-09 2020-04-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7296712B2 (ja) 2018-10-26 2023-06-23 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219264A (ja) 2002-01-22 2003-07-31 Fuji Photo Film Co Ltd 撮像装置、撮像方法、及びプログラム
JP2019062436A (ja) 2017-09-27 2019-04-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20210075952A1 (en) 2021-03-11
US11710343B2 (en) 2023-07-25
JP2021044710A (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP6700840B2 (ja) 画像処理装置、撮像装置、制御方法及びプログラム
JP7301683B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2009139154A1 (ja) 撮像装置及び撮像方法
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2019106045A (ja) 画像処理装置、方法及びプログラム
US11030799B2 (en) Image processing apparatus, image processing method and storage medium. With estimation of parameter of real illumination based on normal information on pixel included in high luminance area
JP6552266B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2002271638A (ja) ホワイトバランス補正方法及び装置並びに該方法を実行するためのプログラムを記録した記録媒体
JP5272775B2 (ja) 電子スチルカメラ
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
JP7057086B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7321772B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2018180860A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017138927A (ja) 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム
JP7462464B2 (ja) 画像処理装置および方法、プログラム、記憶媒体
JP7011694B2 (ja) 画像処理装置およびその制御方法、プログラム
US11842467B2 (en) Image processing apparatus, image processing method and storage medium
US20240013499A1 (en) Image processing apparatus, image processing method, recording medium, and image processing system
JP7102192B2 (ja) 画像処理装置、その制御方法、プログラム
JP2014011639A (ja) 撮像装置
JP7408353B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021145385A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230621

R151 Written notification of patent or utility model registration

Ref document number: 7301683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151