JP2013135341A - 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 Download PDF

Info

Publication number
JP2013135341A
JP2013135341A JP2011284457A JP2011284457A JP2013135341A JP 2013135341 A JP2013135341 A JP 2013135341A JP 2011284457 A JP2011284457 A JP 2011284457A JP 2011284457 A JP2011284457 A JP 2011284457A JP 2013135341 A JP2013135341 A JP 2013135341A
Authority
JP
Japan
Prior art keywords
subject
image
image processing
distance
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011284457A
Other languages
English (en)
Other versions
JP5713885B2 (ja
JP2013135341A5 (ja
Inventor
Ryuta Shoji
竜太 庄司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011284457A priority Critical patent/JP5713885B2/ja
Priority to US13/690,049 priority patent/US9218681B2/en
Publication of JP2013135341A publication Critical patent/JP2013135341A/ja
Publication of JP2013135341A5 publication Critical patent/JP2013135341A5/ja
Application granted granted Critical
Publication of JP5713885B2 publication Critical patent/JP5713885B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影環境の雰囲気を保ちながら、主被写体からの距離に応じて、露出を変えて撮影した画像の合成比率を変更しつつHDR合成を行える技術を実現する。
【解決手段】露出を変えて撮影した複数枚の画像を合成する画像処理装置において、被写体ごとの露出値を算出する露出算出手段と、前記露出算出手段により算出された露出値に応じて被写体を撮像する撮像手段と、前記撮像手段により撮像された画像から特定の被写体領域を検出する被写体検出手段と、前記特定の被写体領域から主被写体を決定する主被写体決定手段と、前記主被写体までの距離を取得する距離取得手段と、前記撮像手段により撮像された複数枚の画像を所定の合成比率で合成する画像合成手段と、前記画像合成手段による合成比率を、前記距離取得手段により取得した距離情報に応じて変更する制御手段と、を有する。
【選択図】図3

Description

本発明は、露出を変えて撮影した複数枚の画像を合成することで幅広いダイナミックレンジを持つ画像を生成する技術に関する。
近年、明暗差が大きいことに起因する白飛びや暗部の黒潰れを低減する技術として、露出を変えつつ複数枚の画像を撮影し、これらを合成して幅広いダイナミックレンジを持つ画像を生成するハイダイナミックレンジ(HDR)合成機能が注目されている。一般的に、CMOSイメージセンサ等のダイナミックレンジ(最明部と最暗部との明暗の比)は、自然界のダイナミックレンジよりも狭いため、太陽などの飛び抜けて明るい部分は白く飛び、暗部は黒く潰れることがある。
この白飛びに対して、露出を低くして撮影すれば、全体的に暗くなるため白飛びは抑制できるが、暗部が黒く潰れてしまう。一方、黒潰れに対して、露出を高くすると、全体的に明るくなるため黒潰れは抑制できるが、明部に白飛びが発生してしまう。
HDR合成では、同じ構図で高い露出と低い露出で複数枚の画像を撮影し、明るい領域(白飛び等)は、低露出画像に重みをかけ、暗い領域は、高露出画像に重みをかけて合成することにより、白飛びや暗部の黒潰れを改善できる。
ここで、水族館等のように全体的に暗い屋内にライトアップされた水槽が存在する場所で、水槽を背景に人物を撮影する場合(逆光シーン)を考える。通常の撮影では、人物が適正露出となるように撮影するため水槽が白飛びする一方、水槽が適正露出となるように撮影すると人物が黒潰れしてしまう。
このような場合、HDR合成機能によって、人物が黒潰れしないような露出で撮影した画像と、水槽が白飛びしないような露出で撮影した画像を合成することで、白飛びや黒潰れのない画像を生成することが可能となる。しかしながら、従来のHDR合成機能では、人物が黒潰れしないような露出で撮影する際に、建物の壁や床等の人物以外の暗部まで明るくなってしまい、水族館独特の雰囲気を損ねてしまう。
これに対し、特許文献1では、人物の顔領域について適正露出で撮影した画像と高露出で撮影した画像を合成する際に、人物の顔領域については高露出で撮影した画像を合成する割合(以下、合成比率)を高くし、人物から遠ざかるにつれて露出の高い画像の合成比率を小さくしていくことにより人物のみを明るくしている。
特開2009−065350号公報
ところが、上記特許文献1における人物からの距離は画像平面上の距離であって、シーンの奥行きを考慮して合成比率を変更するものではない。このため、主被写体より奥の背景に存在する人物を、背景の一部として明るくしたり、主被写体の手前に存在する無関係の人物を暗いままにする、というような柔軟な画像合成は不可能であった。
本発明は、上記課題に鑑みてなされ、その目的は、撮影環境の雰囲気を保ちながら、主被写体からの距離に応じて、露出を変えて撮影した画像の合成比率を変更しつつHDR合成を行える技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の画像処理装置は、露出を変えて撮影した複数枚の画像を合成する画像処理装置において、被写体ごとの露出値を算出する露出算出手段と、前記露出算出手段により算出された露出値に応じて被写体を撮像する撮像手段と、前記撮像手段により撮像された画像から特定の被写体領域を検出する被写体検出手段と、前記特定の被写体領域から主被写体を決定する主被写体決定手段と、前記主被写体までの距離を取得する距離取得手段と、前記撮像手段により撮像された複数枚の画像を所定の合成比率で合成する画像合成手段と、前記画像合成手段による合成比率を、前記距離取得手段により取得した距離情報に応じて変更する制御手段と、を有する。
本発明によれば、撮影環境の雰囲気を保ちながら、主被写体からの距離に応じて、露出を変えて撮影した画像の合成比率を変更しつつHDR合成を行えるようになる。
本実施形態の画像処理装置のブロック図。 レンズ位置と被写体距離との関係を示す図。 本実施形態の画像生成処理を示すフローチャート(a)及び背景が適正露出となるように撮影された画像の例示する図(b)。 本実施形態の画像撮影処理(a)及び距離情報取得処理(b)を示すフローチャート。 図4(b)の距離取得処理において、(a)は画像をブロック分割した状態を示す図、(b)はブロックごとの距離情報を格納するリストを例示する図。 本実施形態の合成対象領域判定処理を示すフローチャート。 主被写体が適正露出となるように撮影された画像を例示する図。 本実施形態のHDR合成処理を示すフローチャート(a)、主被写体の背景に存在する被写体に対する合成比率を示す図(b)、主被写体の手前に存在する被写体に対する合成比率を示す図(c)、及びHDR合成結果を例示する図(d)。
以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。
以下、本発明の画像処理装置を、画像を撮影するデジタルカメラ等の撮像装置に適用した実施形態について説明する。
<装置構成>図1を参照して、本実施形態の撮像装置100の構成について説明する。
図1において、101は撮像装置全体の制御を司るシステム制御部である。システム制御部101は後述する各ブロックを制御して、ユーザの設定と操作に応じて画像を処理する。
102は絞り・ズーム・フォーカス機能を備えた光学レンズユニットである。
103はシステム制御部101からの指示に従い、光学レンズユニット102を制御するための光学制御部である。具体的には、光学レンズユニット102の絞り・ズーム・フォーカスを変更することができる。
104は光学レンズユニット102を経て導入された被写体の画像を光電変換する撮像素子であり、CCDイメージセンサやCMOSイメージセンサが適用される。
105はシステム制御部101からの指示に従い、撮像素子104を制御するための撮像制御部である。具体的には、撮像素子の感度調整(ゲインコントロール)、シャッター時間に従った撮像素子からのデータの読み取りなどを行う(撮像手段)。
撮像装置100は、光学制御部103や撮像制御部105により、絞りやシャッタースピードを変更することで露出を制御する(露出算出処理)。
ここで、光学制御部103は、撮像素子104から出力されるコントラスト電圧が最大になるようにフォーカスモータを駆動してオートフォーカス機能を実現する。詳述すると、このオートフォーカス機能は、光学レンズユニット102を移動してピント位置を動かしていくと、撮像される画像のコントラストが変化していき、合焦位置でコントラストが最大になるという性質を利用している。また、光学制御部103は、例えば、図2に示すような、光学レンズユニット102の位置と、被写体までの距離との関係を示す数式データを位置−距離テーブルとして格納している。これにより、撮像素子104から出力されるコントラスト電圧が最大となる場合の光学レンズユニット102の位置に対応する距離を、システム制御部101に出力することが可能である(距離取得処理)。
記録媒体106はシステム制御部101からの指示に従いデータを保持する。具体的にはSDメモリカード・コンパクトフラッシュカード(登録商標)・メモリスティックなどのカード型で取り外し可能なメモリが用いられる。記録媒体106には、撮像制御部105が出力する画像データ(RAWデータ)か、その画像データからシステム制御部101が生成した画像データ(JPEGデータ)が格納される。
107は本実施形態の撮像装置を制御するプログラムと、当該プログラムが使用するデータを格納するための不揮発性メモリ(ROM)である。撮像装置に電源が投入されると、システム制御部101はROM107からプログラムを読み込み、撮像装置の制御を開始する。
108は撮像装置を制御するプログラムが作業領域として使用するための書き換え可能な揮発性メモリ(RAM)である。また、撮像制御部105の出力する画像データを一時的に保持するバッファとしても使用される。
109は、後述するUIユニット110でユーザの指定した設定値や、本実施形態の撮像装置がパワーサイクルを超えて保持する必要のあるパラメータを保持するための書き換え可能な不揮発性メモリ(NVRAM)である。
110はユーザの操作・指示を受け付けて撮像録装置に伝達するUIユニットである。UIユニット110は撮影ボタン、メニューボタン等を含む複数のボタン、ダイヤル、タッチパネル等を有する。
111はシステム制御部101からの指示に従い、画像を表示するための表示部である。表示部111は液晶表示装置(LCD)のような薄型ディスプレイとそのディスプレイをコントロールするディスプレイドライバから構成される。
表示部111には、撮像装置の各種設定を行うためのメニュー、撮像制御部105が出力する画像のデータ(構図決定用のファインダとしての利用)、撮影した画像(撮影画像の確認としての利用)、記録媒体106に格納された画像(画像ビューアとしての利用)がそれぞれ表示される。それぞれの画像には任意のグラフィクス画像を重畳して表示することが可能である。
<動作説明>図3を参照して、本実施形態の撮像装置100による画像生成処理について説明する。
なお、図3の処理は、システム制御部101が、ROM107に格納された制御プログラムを、RAM108のワークエリアに展開し、実行することで実現される。
本実施形態では、撮影環境の雰囲気として、水族館で人物を撮影するシーンを想定して説明する。
図3(a)において、ステップS301では、システム制御部101は、撮像制御部105により背景の水槽が白飛びしないように露出を調整して画像を撮影する。図3(b)の310は背景が適正露出になるように撮影された画像であり、311は水槽、312は水族館の床、321〜323は人物である。
ステップS302では、システム制御部101は、撮影した画像から、HDR合成処理の対象となる領域(以下、合成対象領域)を判定する。
ステップS303では、システム制御部101は、ステップS302で判定された合成対象領域から主被写体を決定し(主被写体決定処理)、主被写体の明るさが適正となるように露出を調整して画像を撮影する。
ステップS304では、システム制御部101は、ステップS301とS303で撮影した2枚の画像をHDR合成する(画像合成処理)。
ここで、図4を参照して、図3のS301での処理について詳述する。
図4(a)において、ステップS401では、システム制御部101は、光学レンズユニット102から入力された画像を撮像素子104により光電変換して撮像制御部105へ出力する。撮像制御部105は得られたアナログ画像信号をデジタル画像データに変換してシステム制御部101へ出力する。
ステップS402では、システム制御部101は、ステップS401で取得した画像データを表示部111に構図決定用(プレビュー用)の画像として表示する。このとき、ステップS401で撮像制御部105から出力された画像データは、表示部111の解像度に調整して表示される。
ステップS403では、システム制御部101は、ステップS401で取得した画像データから、対象とする被写体を検出し、被写体の数および被写体領域を特定する(被写体検出処理)。
本実施形態で対象とする被写体は、人物の顔である。検出方法は公知の顔検出方法を用いる。顔検出の公知技術は、顔に関する知識(肌色情報、目・鼻・口などのパーツ)を利用する方法とニューラルネットに代表される学習アルゴリズムにより顔検出のための識別器を構成する方法などがあり、検出精度向上のためにこれらを組み合わせて顔検出を行うのが一般的である。具体的には特開2002−251380号広報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。被写体検出により出力される情報としては、検出数分の被写体の位置、大きさ、傾き、検出結果の信頼度などが挙げられる。顔領域を特定した後、顔以外の人物領域を抽出し、被写体領域に含める。上記抽出方法については周知の方法を利用する。例えば、顔領域の座標の画素と、隣接する画素との画素値の差分を計算し、予め定めた閾値以下であれば、同一の人物領域と判定し被写体領域に含める。システム制御部101は、抽出した被写体領域の座標情報を、領域ごとにRAM108に格納する。
ステップS404では、システム制御部101は、光学制御部103によりシャッタースピードや絞りを調節して、水槽311の明るさが適正となるよう露出値を決定する。
ステップS405では、システム制御部101は、UIユニット110から合焦指示の有無を確認する。具体的には、ユーザがレリーズボタンを半押しした場合を合焦指示とみなす。合焦指示がされた場合はステップS406に進み、撮影指示がない場合にはステップS401に戻り、構図決定用(プレビュー)の画像を更新する。
ステップS406では、システム制御部101は、主被写体(図3(b)の人物321とする)に対して合焦する制御において、主被写体までの距離情報を取得する。
ここで、ステップS406での距離情報取得処理について図4(b)を参照して説明する。
図4(b)において、ステップS407では、システム制御部101は、撮像素子104の画素を、1ブロックL×L画素として、M(X座標)×N(Y座標)のブロックに分割し、これに対応させて取り込んだ画像データを図5(a)のように複数のブロックに分割する。
ステップS408では、システム制御部101は、光学制御部103により光学レンズユニット102を焦点位置が無限遠になる位置に移動させる。
ステップS409では、システム制御部101は、光学制御部103により焦点位置が小さくなる方向へ光学レンズユニット102を1ステップずつ移動させる。
ステップS410では、システム制御部101は、各ブロックの高周波成分をRAM108に記憶する。
ステップS411では、光学制御部103は、焦点位置が最小となるまで光学レンズユニット102を移動させたか判定し、判定結果をシステム制御部101に通知する。光学レンズユニット102の移動が完了した場合には、ステップS412へ進み、完了していない場合にはステップS409へ戻る。
ステップS412では、システム制御部101は、各ブロックの高周波成分がピークとなるレンズ位置を算出する。
ステップS413では、システム制御部101は、図2のレンズ位置と被写体距離との関係から各ブロックの距離を算出する。
ステップS414では、システム制御部101は、ステップS413で算出した距離情報を、図5(b)のように各ブロックの座標情報と対応させてRAM108に保存する。この距離情報は、画像データのヘッダ部に格納してもよいし、別ファイルとして、画像データに対応付けて記録媒体106に保存してもよい。ここではブロック単位で距離情報を算出したが、L=1として画素単位で距離情報を算出してもよい。
ステップS415では、光学制御部103は、主被写体に合焦する位置に光学レンズユニット102を移動させる。
図4(a)に戻り、ステップS416では、システム制御部101は、UIユニット110から撮影指示の有無を確認する。具体的には、ユーザがレリーズボタンを押下した場合、あるいは、セルフタイマーが完了した場合を撮影指示とみなす。撮影指示がなされた場合はステップS417に進み、撮影指示がない場合にはステップS401に戻り、構図決定用(プレビュー)の画像を更新する。
ステップS417では、システム制御部101は、撮像制御部105を介して撮影指示時の画像データを取得し、RAM108に格納する。
次に、図3のS302での処理について、図6を参照して説明する。
図6において、ステップS601では、システム制御部101は、ステップS403において特定した被写体領域をRAM108から読み出す。
ステップS602では、システム制御部101は、ステップS601で読み出した被写体領域ごとに画素の輝度の平均値を算出する。
ステップS603では、システム制御部101は、ステップS602において算出した平均輝度値が、予め決められた閾値以下か否かを判定する。平均輝度値が閾値以下の場合はステップS604へ進み、閾値以下でない場合には本処理を終了する。
ステップS604では、システム制御部101は、平均輝度値が閾値以下の被写体領域を合成対象領域と判定する。上記判定方法の他にも、被写体領域のヒストグラムにおいて、所定の輝度以下の画素数が一定以上である場合や、ピークの輝度が閾値以下の場合に、被写体領域を合成対象領域と判定してもよい。ここでは、人物領域321〜323が合成対象領域となる。
図3に戻り、ステップS303では、システム制御部101は、主被写体(人物321)の明るさが適正になるように露出を調整し、撮像制御部105により主被写体の画像を撮影し(S303)、撮像された画像データをRAM108に格納する。ここで撮影された画像を図7の700に示す。図3(b)の画像310と比較して、撮影画像700は、人物領域711〜713や床702の黒潰れが解消された一方、背景の水槽701が白飛びしている。
ステップS304では、システム制御部101は、撮影画像700と、ステップS301で撮影した画像310とをHDR合成する。
次に、図3のS304でのHDR合成処理について、図8(a)を参照して説明する。
図8(a)において、ステップS801では、システム制御部101は、RAM108から画像310と画像700のデータを読み出す。
ステップS802では、システム制御部101は、ステップS801で読み出した2枚の画像の位置合わせを行う。この位置合わせは、公知の方法を用いて実施する。例えば、複数枚の画像から、特開2008−046750に記載されているような、一般的な特徴点抽出方法であるHarrisオペレータ等を用いて特徴点を抽出し、画像間の特徴点の対応付けを行う。その後、特徴点の対応から射影変換行列を推定し、画像を変形することで画像の位置合わせを行う。なお、複数枚の画像の位置合わせは上記の方法のみに限定されず、他の公知の手段を用いても良い。ここでは、画像310に対し画像700を変形して位置合わせする。位置合わせのために画像700を変形した画像を画像710とする。
ステップS803では、システム制御部101は、ステップS302にて判定した合成対象領域をRAM108から読み出す。
ステップS804では、システム制御部101は、撮影位置から合成対象領域までの距離情報をRAM108から読み出す。ここでは、合成対象領域における各被写体の顔領域の中心座標での距離を撮影位置から合成対象領域までの距離とする。
ステップS805では、システム制御部101は、主被写体の位置を基準として、主被写体からの距離Zに対する画像710の合成比率Rを決定する。この合成比率Rは、主被写体位置(距離Z=0)において、R=1となり、主被写体位置から遠ざかるにつれて単調減少するように設定される。ここで、主被写体よりも奥に存在する被写体は、主被写体の背景の一部として扱われる可能性がある。例えば、水槽の前に群衆ができているシーンを撮影したい場合には、人物も背景の一部となる一方、主被写体よりも手前に存在する被写体は、偶然写り込んだ通行人等、不要物である可能性が高い。このため、主被写体の手前に存在する被写体よりも、主被写体の背景に存在する被写体を明るくするよう合成比率Rを設定する。
具体的には、合成対象領域の被写体が主被写体よりも手前に存在するか奥に存在するかに応じて合成比率Rの単調減少の割合を変更する。図8の(b)と(c)はそれぞれ、主被写体よりも奥の領域(背景)に対する合成比率Rのグラフ、主被写体よりも手前の領域(前景)に対する合成比率Rのグラフである。図8(b)、(c)のように、Z=kにおいて、主被写体よりも奥の領域に対する合成比率(Rb)が、主被写体よりも手前の領域に対する合成比率(Rf)よりも高くなるように合成比率Rが設定される。
ステップS806では、システム制御部101は、ステップS805で決定した合成比率Rを用いて、画像310と画像710をHDR合成する。具体的には、下記式により、合成結果の画素値を算出する。
2=R・p1+(1−R)・p0
0は、背景の水槽が白飛びしないように露出を調整して撮影した画像310中の合成対象領域の画素(X0、Y0)における画素値である。p1は、主被写体の明るさが適正になるように露出を調整して撮影した画像710中の、画素(X0、Y0)に対応する画素の画素値である。p2は、合成結果の画素値である。p2算出後、画像310の画素(X0、Y0)の画素値をp2で置き換える。これを全ての合成対象領域の画素に対して行う。
ステップS807では、システム制御部101は、ステップS806で合成した画像810を記録媒体106に保存し、本処理を終了する。
本実施形態での合成結果は、図8(d)に示すように、水槽811が白飛びせず、被写体領域821〜823が黒潰れしない一方で、床812のような被写体以外の暗部は暗いままとなり、水族館の雰囲気を保持した画像となる。
なお、本実施形態では、2枚の画像の露出値を、主被写体321の明るさが適正となる露出値と、それよりも低い露出値(水槽311の明るさが適正となる露出値)に設定した。これに対して、主被写体の背景に存在する被写体を明るくする必要がある場合には、上記主被写体の適正露出値より高い露出値に設定して撮影してもよい。
また、撮影位置から被写体までの距離の算出方法については、以下の方法としてもよい。すなわち、画像中の人物の顔領域の大きさに対する、当該人物の撮影装置からの距離を予めデータベース化しておく。そして、人物の顔領域が検出されたときに人物の顔領域の大きさを取得し、上記データベースに問い合わせることで、撮影位置から被写体までの距離を推定可能である。
また、本実施形態では、主被写体が適正露出となるように撮影した場合に背景が白飛びする例について説明したが、背景が黒潰れするような場合にも本発明は適用可能である。すなわち、背景が適正露出となるように撮像された画像を、この露出値よりも高い値で撮像した画像の人物領域に対して、上述の方法でHDR合成する。また、本実施形態では、被写体を人物としたが、人物以外のオブジェクトに対しても、公知のオブジェクト検出の方法を用いることにより実現可能である。
上述した実施形態によれば、撮影環境の雰囲気を保ちながら、主被写体からの距離に応じて、露出を変えて撮影した画像の合成比率を変更しつつHDR合成を行えるようになる。
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (11)

  1. 露出を変えて撮影した複数枚の画像を合成する画像処理装置において、
    被写体ごとの露出値を算出する露出算出手段と、
    前記露出算出手段により算出された露出値に応じて被写体を撮像する撮像手段と、
    前記撮像手段により撮像された画像から特定の被写体領域を検出する被写体検出手段と、
    前記特定の被写体領域から主被写体を決定する主被写体決定手段と、
    前記主被写体までの距離を取得する距離取得手段と、
    前記撮像手段により撮像された複数枚の画像を所定の合成比率で合成する画像合成手段と、
    前記画像合成手段による合成比率を、前記距離取得手段により取得した距離情報に応じて変更する制御手段と、を有することを特徴とする画像処理装置。
  2. 前記露出算出手段は、前記主被写体の明るさが適正となる露出値を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記露出算出手段は、撮影位置からの距離が前記主被写体よりも遠いもしくは近い被写体の明るさが適正となる露出値を算出することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記制御手段は、撮影位置からの距離が前記主被写体よりも遠い被写体の画像の合成比率を小さくすることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記制御手段は、撮影位置からの距離が前記主被写体よりも近い被写体の画像の合成比率を大きくすることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  6. 前記被写体検出手段により検出された被写体領域のうち、平均輝度が閾値以下の被写体領域を前記特定の被写体領域と判定する判定手段を更に有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記特定の被写体領域は人物領域であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記距離取得手段は、前記人物領域の顔の大きさに基づいて前記距離を推定することを特徴とする請求項7に記載の画像処理装置。
  9. 露出を変えて撮影した複数枚の画像を合成する画像処理装置における画像処理方法であって、
    被写体ごとの露出値を算出する露出算出ステップと、
    前記露出算出ステップにより算出された露出値に応じて被写体を撮像する撮像ステップと、
    前記撮像ステップにより撮像された画像から特定の被写体領域を検出する被写体検出ステップと、
    前記特定の被写体領域から主被写体を決定する主被写体決定ステップと、
    前記主被写体までの距離を取得する距離取得ステップと、
    前記撮像ステップにより撮像された複数枚の画像を所定の合成比率で合成する画像合成ステップと、
    前記画像合成ステップによる合成比率を、前記距離取得ステップにより取得した距離情報に応じて変更する制御ステップと、を有することを特徴とする画像処理方法。
  10. コンピュータを、請求項1乃至8のいずれか1項に記載された画像処理装置の各手段として機能させるプログラム。
  11. コンピュータを、請求項1乃至8のいずれか1項に記載された画像処理装置の各手段として機能させるプログラムを格納した記憶媒体。
JP2011284457A 2011-12-26 2011-12-26 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 Active JP5713885B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011284457A JP5713885B2 (ja) 2011-12-26 2011-12-26 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
US13/690,049 US9218681B2 (en) 2011-12-26 2012-11-30 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011284457A JP5713885B2 (ja) 2011-12-26 2011-12-26 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Publications (3)

Publication Number Publication Date
JP2013135341A true JP2013135341A (ja) 2013-07-08
JP2013135341A5 JP2013135341A5 (ja) 2014-02-27
JP5713885B2 JP5713885B2 (ja) 2015-05-07

Family

ID=48654587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011284457A Active JP5713885B2 (ja) 2011-12-26 2011-12-26 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Country Status (2)

Country Link
US (1) US9218681B2 (ja)
JP (1) JP5713885B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208083A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016208380A (ja) * 2015-04-27 2016-12-08 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2021049640A (ja) * 2020-12-17 2021-04-01 株式会社東芝 保持装置、飛行体、および搬送システム
JP7532040B2 (ja) 2020-01-28 2024-08-13 キヤノン株式会社 撮像装置およびその制御方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10798284B2 (en) * 2015-07-07 2020-10-06 Sony Corporation Image processing apparatus and method
JP2017054337A (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
KR102569375B1 (ko) 2018-10-24 2023-08-22 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR20200053125A (ko) 2018-11-08 2020-05-18 삼성전자주식회사 전자 장치 및 그 제어 방법
JP2021184525A (ja) * 2020-05-21 2021-12-02 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN111726531B (zh) * 2020-06-29 2022-03-01 北京小米移动软件有限公司 图像拍摄方法、处理方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142953A (ja) * 2003-11-07 2005-06-02 Ricoh Co Ltd デジタル画像撮像装置
JP2009206925A (ja) * 2008-02-28 2009-09-10 Fujifilm Corp 撮像装置及び画像信号処理方法
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5828793A (en) * 1996-05-06 1998-10-27 Massachusetts Institute Of Technology Method and apparatus for producing digital images having extended dynamic ranges
JP2002251380A (ja) 2001-02-22 2002-09-06 Omron Corp 利用者照合システム
US7262798B2 (en) * 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
JP2009065350A (ja) 2007-09-05 2009-03-26 Canon Inc 画像処理装置、画像処理方法、及び記憶媒体
US8897595B2 (en) * 2008-03-26 2014-11-25 Ricoh Co., Ltd. Adaptive image acquisition for multiframe reconstruction
US8724921B2 (en) * 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
CN101394487B (zh) * 2008-10-27 2011-09-14 华为技术有限公司 一种合成图像的方法与系统
WO2011002505A1 (en) * 2009-06-29 2011-01-06 Thomson Licensing Zone-based tone mapping
US8606009B2 (en) * 2010-02-04 2013-12-10 Microsoft Corporation High dynamic range image generation and rendering
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
US8965079B1 (en) * 2010-09-28 2015-02-24 Given Imaging Ltd. Real time detection of gastrointestinal sections and transitions of an in-vivo device therebetween
US8379999B2 (en) * 2011-01-18 2013-02-19 Chanan Gabay Methods, circuits, devices, apparatuses and systems for providing image composition rules, analysis and improvement
JP5743142B2 (ja) * 2011-03-29 2015-07-01 ソニー株式会社 画像理装置および方法、並びにプログラム
JP5791336B2 (ja) * 2011-04-01 2015-10-07 キヤノン株式会社 画像処理装置及びその制御方法
US9491441B2 (en) * 2011-08-30 2016-11-08 Microsoft Technology Licensing, Llc Method to extend laser depth map range
US9129414B2 (en) * 2011-10-14 2015-09-08 Morpho, Inc. Image compositing apparatus, image compositing method, image compositing program, and recording medium
US8811769B1 (en) * 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
US8854412B2 (en) * 2012-09-21 2014-10-07 Cisco Technology, Inc. Real-time automatic scene relighting in video conference sessions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142953A (ja) * 2003-11-07 2005-06-02 Ricoh Co Ltd デジタル画像撮像装置
JP2009206925A (ja) * 2008-02-28 2009-09-10 Fujifilm Corp 撮像装置及び画像信号処理方法
JP2011010194A (ja) * 2009-06-29 2011-01-13 Nikon Corp ボカシ画像形成装置及びそれを備えたカメラ

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208083A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016208380A (ja) * 2015-04-27 2016-12-08 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US11089289B2 (en) 2015-04-27 2021-08-10 Sony Semiconductor Solutions Corporation Image processing device, imaging device, image processing method and program
JP7532040B2 (ja) 2020-01-28 2024-08-13 キヤノン株式会社 撮像装置およびその制御方法
JP2021049640A (ja) * 2020-12-17 2021-04-01 株式会社東芝 保持装置、飛行体、および搬送システム
JP7159273B2 (ja) 2020-12-17 2022-10-24 株式会社東芝 保持装置、飛行体、および搬送システム

Also Published As

Publication number Publication date
JP5713885B2 (ja) 2015-05-07
US20130163813A1 (en) 2013-06-27
US9218681B2 (en) 2015-12-22

Similar Documents

Publication Publication Date Title
JP5713885B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
KR20110090087A (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체
JP2015050713A (ja) 撮像装置、撮像方法およびプログラム
JP5959217B2 (ja) 撮像装置及び画質調整方法、画質調整プログラム
JP2008104069A (ja) デジタルカメラ及びデジタルカメラのプログラム
JP2015230414A (ja) 撮像装置、制御方法およびプログラム
JP2010072619A (ja) 露出演算装置およびカメラ
JP5036334B2 (ja) 撮像装置、撮像方法およびその方法をコンピュータが実行するためのプログラム
JP2009027352A (ja) 撮像装置、画像処理装置およびプログラム
US20100220230A1 (en) Method and apparatus for controlling auto focus, and digital photographing apparatus using the method and apparatus
JP2014179920A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2020017807A (ja) 画像処理装置および画像処理方法、ならびに撮像装置
US11095824B2 (en) Imaging apparatus, and control method and control program therefor
JP4818130B2 (ja) 撮像装置及びその制御方法
JP2009182832A (ja) 撮影装置およびスルー画表示方法
JP2015232620A (ja) 撮像装置、制御方法およびプログラム
JP2008199443A (ja) 撮像装置およびその制御方法
JP7204387B2 (ja) 画像処理装置およびその制御方法
KR101630295B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체
JP2007173985A (ja) 撮像装置及び撮像方法及びプログラム及び記憶媒体
JP2016032180A (ja) 撮像装置、制御方法およびプログラム
KR101817658B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2012034146A (ja) 電子機器およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150310

R151 Written notification of patent or utility model registration

Ref document number: 5713885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151