JP2008294785A - 画像処理装置、撮像装置、画像ファイル及び画像処理方法 - Google Patents

画像処理装置、撮像装置、画像ファイル及び画像処理方法 Download PDF

Info

Publication number
JP2008294785A
JP2008294785A JP2007138599A JP2007138599A JP2008294785A JP 2008294785 A JP2008294785 A JP 2008294785A JP 2007138599 A JP2007138599 A JP 2007138599A JP 2007138599 A JP2007138599 A JP 2007138599A JP 2008294785 A JP2008294785 A JP 2008294785A
Authority
JP
Japan
Prior art keywords
distance
image
unit
imaging
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007138599A
Other languages
English (en)
Inventor
Yukio Mori
幸夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007138599A priority Critical patent/JP2008294785A/ja
Publication of JP2008294785A publication Critical patent/JP2008294785A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】画面の全体に焦点のあった画像を、奥行き感のある立体的なものとする。
【解決手段】画像を撮影する際に、画像を複数の領域に区分し、その領域の各々に含まれる被写体までの距離情報を取得する。その距離情報に基づいて領域毎にぼかし度合いを設定し、そのぼかし度合いによって領域毎にぼかし処理を施す。これによって、画像内のぼかし度合いの低い領域が浮き上がったボケ味のある画像とすることができる。
【選択図】図20

Description

本発明は画像中の被写体の輪郭のぼかし度合いの補正が可能な画像処理装置及びその画像処理方法に関し、特に撮像装置からの距離が異なる複数の被写体を含む画像のぼかし処理に関する。
現在広く普及しているデジタルカメラやデジタルビデオなどといった撮像装置では、CCD(Charge Coupled Device)やCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子の画素数の向上により高精細な画像が撮影できるようになっている。さらに、撮影した画像の階調を自動的に補正して、記録される画像を見栄えのよいものとする撮像装置も既に提案されている。従来の一般的な階調補正は、例えば、撮影画像の全体に鮮明な画像にするため、近景も遠景も同じように鮮明な画像とするものである。
ところで、撮影者に実際に見えている光景では、撮影者からの距離が近い物体ほど鮮明であり、距離が遠い物体ほどぼやけている。つまり、撮影者の肉眼には奥行き感のある立体的な画像が見えている。一眼レフカメラのように、レンズの口径及び撮像素子の大きな撮像装置では、被写界深度の浅い画像を撮影できるため、ボケ味のある、奥行き感のある画像を撮影することができる。しかし、コンパクトサイズのデジタルカメラのような小型の撮像装置においてはレンズの口径及び撮像素子が小さいため、撮影された画像は被写界深度が深く、焦点が近景から遠景まで全体に合ったものとなり、ボケ味のある、奥行き感のある画像を撮影することは難しい。
そこで、特許文献1では、画像中の被写体が人物であることを検出すると、その画像の人物以外の部分をぼかす方法が提案されている。これによって、人物から背景まで全体に焦点が合った画像でも、人物が浮き上がった画像とすることができる。
又、特許文献2では撮影レンズの焦点距離又は被写体の撮影距離の少なくとも一方を利用して階調の変換を変化させる方法が提案されている。マクロ撮影のように焦点距離が長く、撮影距離が短い場合は中間域の階調変化を強調して白とびや黒つぶれを抑制して画面全体の階調表現を視覚的に滑らかなものとし、一方、風景撮影のように焦点距離が短く、撮影距離が長い場合は中間域の階調変化を弱めて階調を変換し、中間域に集中した階調変化域を拡げてメリハリのある画像に変換させている。
特開平11−41512号公報 特開2004−215100号公報
しかし、特許文献1で提案された画像補整方法では、ぼかし度合いを使用者が設定することができるものの、1個の画像中におけるぼかし度合いは一定であるため人物に比較的近い被写体も比較的遠い被写体もぼけ具合が同じになってしまい、不自然な画像となる。
又、近景、遠景が混在し、焦点が全体に合った画像に対して特許文献2で提案された階調の変換方法を適用する場合、上述のマクロ撮影用の変換方法又は風景撮影用の変換方法のいずれかが適用されることとなる。マクロ撮影用の変換方法では画面全体の階調表現が視覚的に滑らかなものとなり、風景撮影用の変換方法では画面全体がメリハリのあるものとなる。しかし、いずれにしても、近景、遠景の区別なく画面全体に同一の変換条件を適用するため、画面内では近景が遠景に埋もれてしまい、実際に撮影者に見えているような奥行き感は得られない。
そこで、本発明は、近景から遠景まで焦点が全体に合った画像でも、対象となる被写体に焦点が合い、それ以外の被写体がぼけた、奥行き感のある立体的なものとする画像処理装置及び画像処理方法を提供することを目的とする。又、焦点が全体にあった画像を、上述のような奥行き感のある立体的なものとするための被写体までの距離情報を、その画像とともに関連づけて記録できる撮像装置を提供することを目的とする。
上記目的を達成するために本発明は、入力された信号の信号値を変更して画像を補正する画像補正装置において、被写体を含む画像を単数又は複数の画素からなる領域に区分し、前記領域の各々を前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施すことを特徴とする。
又、前記ぼかし処理がローパスフィルタによって行われ、前記ローパスフィルタのカットオフ周波数を変更することにより前記ぼかし度合いを設定するものとしても構わない。
又、前記被写体までの距離が長いほど前記領域に適用する領域前記ぼかし度合いを高く設定するものとしても構わない。
又、前記被写体までの距離が所定の距離以下である前記領域にはぼかし処理を施さないものとしても構わない。
又、前記領域を前記被写体までの距離に基づいて複数の距離グループに区分し、前記距離グループの各々に前記ぼかし度合いを設定し、前記領域の各々は、属する前記距離グループに設定されたぼかし度合いによってぼかし処理を施すものとしても構わない。
又、前記領域の前記被写体までの距離が所定の距離よりも離れるほど前記ぼかし度合いを高く設定するものとしても構わない。
又、前記所定の距離が、特定部分を有する前記被写体までの距離であるものとしても構わない。
又、前記領域の各々を前記被写体までの距離に応じた階調補正特性によって階調補正するものとしても構わない。
又、本発明の電子機器は、上記構成の画像補正装置を備えるものとする。
上記電子機器において、レンズと焦点制御手段とを有するレンズ部と、前記レンズ部から入射した光を電気信号に光電変換する固体撮像素子と、前記固体撮像素子で取得した前記被写体を含む画像の電気信号から前記被写体まで距離を検出する距離検出部と、前記固体撮像素子で取得したままの状態の前記画像の電気信号からなる本体部と、前記距離検出部で検出した前記本体部の画像を区分した各領域の前記被写体までの距離の情報を有するヘッダ部とを備える画像ファイルを記憶する記憶部と、を備え、前記記憶部に記憶された前記本体部の前記画像の電気信号を前記ヘッダ部に記憶された前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施すものとしても構わない。
又、前記固体撮像素子で、前記被写体を含み合焦距離の異なる複数の画像からなる距離検出用画像を、前記レンズ部の合焦距離を変化させて取得し、前記距離検出部では、前記合焦距離の異なる複数の画像の前記領域の各々の高周波成分の強度を測定し、前記領域の各々の高周波成分の強度が最も高い画像の合焦距離を検出し、前記距離検出部で検出した、前記高周波成分の強度が最も高い画像の合焦距離を、前記領域の各々の前記被写体までの距離として用いるものとしても構わない。
又、本発明の画像補正方法は、被写体を含む前記画像の信号と、前記画像を区分した単数又は複数の画素からなる領域の各々の前記被写体までの距離情報とを有する画像ファイルを記憶した外部メモリから前記画像ファイルの読み出しを行う第1ステップと、前記第1ステップで読み出された前記領域の各々に含まれる前記被写体までの距離に応じたぼかし度合いによって、前記被写体を含む画像にぼかし処理を施す第2ステップと、を備えることを特徴とする。
本発明によると、画面を区分した領域に含まれる被写体までの距離に基づいて、領域毎にぼかし処理の度合いを設定するため、近景から遠景まで焦点が全体に合った画像でも、対象となる被写体に焦点が合い、それ以外の被写体がぼけた、奥行き感のある立体的なものとすることができる。
〈第1の実施形態〉
本発明の第1の実施の形態について、図面を参照して説明する。尚、以下では、本発明における撮影方法を行うデジタルカメラやデジタルビデオなどの撮像装置を例に挙げて説明する。撮像装置は静止画を撮影できるものであれば、動画撮影が可能なものであっても構わない。
(撮像装置の構成)
まず、撮像装置の内部構成について、図面を参照して説明する。図1は、第1の実施形態に係る撮像装置の内部構成を示すブロック図である。
図1の撮像装置は、入射される光を電気信号に変換するCCD又はCMOSセンサなどの固体撮像素子(イメージセンサ)1と、被写体の光学像をイメージセンサ1に結像させるズームレンズとズームレンズの焦点距離すなわち光学ズーム倍率を変化させるモータとズームレンズの焦点を被写体に合わせるためのモータとを有するレンズ部2と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog Front End)3と、外部から入力された音声を電気信号に変換するマイク4と、AFE3からのデジタル信号となる画像信号に対して、ぼかし処理及び階調補正を含む各種画像処理を施す画像処理部5と、画像処理部5から入力された画像信号から被写体までの距離を検出する距離検出部23と、マイク4からのアナログ信号である音声信号をデジタル信号に変換する音声処理部6と、静止画を撮影する場合は画像処理部5からの画像信号に対してJPEG(Joint Photographic Experts Group)圧縮方式など、動画を撮影する場合は画像処理部5からの画像信号と音声処理部6からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部7と、圧縮処理部7で圧縮符号化された圧縮符号化信号をSDカードなどの外部メモリ22に記録するドライバ部8と、ドライバ部8で外部メモリ22から読み出した圧縮符号化信号を伸長して復号する伸長処理部9と、伸長処理部9で復号されて得られた画像信号をアナログ信号に変換するビデオ出力回路部10と、ビデオ出力回路部10で変換された信号を出力するビデオ出力端子11と、ビデオ出力回路部10からの信号に基づく画像の表示を行うLCD等を有するディスプレイ部12と、伸長処理部9からの音声信号をアナログ信号に変換する音声出力回路部13と、音声出力回路部13で変換された信号を出力する音声出力端子14と、音声出力回路部13からの音声信号に基づいて音声を再生出力するスピーカ部15と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)16と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)17と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ18と、静止画撮影用のシャッターボタンを含むユーザからの指示が入力される操作部19と、CPU17と各ブロックとの間でデータのやりとりを行うためのバス回線20と、メモリ18と各ブロックとの間でデータのやりとりを行うためのバス回線21と、を備える。レンズ部2は、画像処理部5で検出した画像信号に応じてCPU17が、モータを駆動して焦点、絞りの制御を行うものである。
(撮像装置の基本動作 静止画撮影時)
次に、この撮像装置の静止画撮影時の基本動作について図2のフローチャートを用いて説明する。まず、ユーザが撮像装置の電源をONにすると(STEP201)、撮像装置の撮影モードつまりイメージセンサ1の駆動モードがプレビューモードに設定される(STEP202)。続いて撮影モードの入力待ち状態となり、後述するぼかしモード等が選択される。撮影モードが入力されない場合はプレビューモードが選択されたものとする(STEP203)。プレビューモードでは、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE3においてデジタル信号に変換されて、画像処理部5で画像処理が施され、圧縮処理部7で圧縮された現時点の画像に対する画像信号が外部メモリ22に一時的に記録される。この圧縮信号は、ドライバ部8を経て、伸長処理部9で伸長され、現時点で設定されているレンズ部18のズーム倍率での画角の画像がディスプレイ部12に表示される。
続いてユーザが、撮影の対象とする被写体に対して所望の画角となるように、光学ズームでのズーム倍率を設定する(STEP204)。その際、画像処理部5に入力された画像信号を基にCPU17によってレンズ部2を制御して、最適な露光制御(Automatic Exposure;AE)・フォーカス制御(Auto Focus;AF)が行われる(STEP205)。
ユーザが撮影画角、構図を決定し、操作部19のシャッターボタンを半押しすると(STEP206)、AEの調整を行い(STEP207)、AFの最適化処理を行う(STEP208)。AFの最適化処理では、例えば撮影画像エリアを複数の領域に分割し、その一部の領域をAF評価エリアと設定する。そして、レンズ部2の合焦距離(フォーカス位置)を近点から遠点又は遠点から近点へ変化させながら、距離情報検出部23でAF評価エリアの重み付けを高く設定した全領域の輝度信号の高周波成分を検出し、高周波成分が最大値となるフォーカス位置を撮影に用いるフォーカス位置に設定する。図3は撮影画像エリアを縦8列、横8行の64個の領域に分割し、その中央の16個の領域をAF評価エリアと設定した画像の例である。図4は図3の画像のAF評価エリアの重み付けを高く設定した全領域及び他の個々の領域の輝度信号の高周波成分と合焦距離との関係を示すグラフである。太線で示すAF評価エリアの重み付けを高く設定した全領域のグラフの矢印で示した位置が撮影に用いるフォーカス位置である。
撮影用のAE・AFが設定されると、イメージセンサ1の駆動モードについてぼかし処理モードが選択されているかどうかを検出する(ステップ209)。ぼかし処理モードが選択されていない場合、シャッターボタンが全押しされると(STEP220)、TG16より、イメージセンサ1、AFE3、画像処理部5及び圧縮処理部7それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させ、イメージセンサ1の駆動モードを静止画撮影モードに設定し(STEP221)、イメージセンサ1から出力されるアナログ信号である画像信号(生データ)をAFE3でデジタル信号に変換して一旦画像処理部5内のフレームメモリに書き込む(STEP222)。このデジタル信号がこのフレームメモリから読み込まれ、画像処理部5において輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施され、画像処理が施された信号が圧縮処理部7においてJPEG(Joint Photographic Experts Group)形式に圧縮された(STEP223)後、外部メモリ22に圧縮画像を書き込み(STEP213)、撮影を完了する。その後、プレビューモードに戻る(STEP202)。
(撮像装置の基本動作 動画撮影時)
動画撮影時の動作について説明する。この撮像装置において、撮像動作を行うことが操作部19によって指示されると、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE3に出力される。このとき、イメージセンサ1では、TG16からのタイミング制御信号が与えられることによって、水平走査及び垂直走査が行われて、画素毎のデータとなる画像信号が出力される。そして、AFE3において、アナログ信号である画像信号(生データ)がデジタル信号に変換されて、画像処理部5に入力されると、輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施される。
そして、画像処理部5で画像処理が施された画像信号が圧縮処理部7に与えられる。このとき、マイク4に音声入力されることで得られたアナログ信号である音声信号が、音声処理部6でデジタル信号に変換されて、圧縮処理部7に与えられる。これにより、圧縮処理部7では、デジタル信号である画像信号及び音声信号に対して、MPEG圧縮符号方式に基づいて、圧縮符号化してドライバ部8に与えて、外部メモリ22に記録させる。又、このとき、外部メモリ22に記録された圧縮信号がドライバ部8によって読み出されて伸長処理部9に与えられて、伸長処理が施されて画像信号が得られる。この画像信号がディスプレイ部12に与えられて、現在、イメージセンサ1を通じて撮影されている被写体画像が表示される。
このように撮像動作を行うとき、TG16によって、AFE3、画像処理部5、音声処理部6、圧縮処理部7、及び伸長処理部9に対してタイミング制御信号が与えられ、イメージセンサ1による1フレームごとの撮像動作に同期した動作が行われる。
又、外部メモリ22に記録された動画を再生することが、操作部19を通じて指示されると、外部メモリ22に記録された圧縮信号は、ドライバ部8によって読み出されて伸長処理部9に与えられる。そして、伸長処理部9において、MPEG圧縮符号方式に基づいて、伸長復号されて、画像信号及び音声信号が取得される。そして、画像信号がディスプレイ部12に与えられて画像が再生されるとともに、音声信号が音声出力回路部13を介してスピーカ部15に与えられて音声が再生される。これにより、外部メモリ22に記録された圧縮信号に基づく動画が音声とともに再生される。
画像を再生することが指示された場合は、外部メモリ22に記録された圧縮信号が伸長処理部9において、JPEG圧縮符号方式に基づいて、伸長復号されて、画像信号が取得される。そして、画像信号がディスプレイ部12に与えられて画像が再生される。
(ぼかし処理モード)
次にぼかし処理モードについて説明する。本発明の撮像装置では、画像処理部5に、画像中の被写体の距離情報を算出してそれに基づいたぼかし処理を撮影した画像に施すことができるぼかし処理部30を備え、このような撮影モードをぼかし処理モードと呼ぶ。ぼかし処理部30の構成及びそのぼかし処理モードにおける動作について以下に説明する。
図5はぼかし処理部30の構成を示すブロック図である。ぼかし処理部30は、シャッターボタンを半押した際にAFE3でデジタル信号とされた距離検出用画像及びシャッターボタンを全押しした際にAFE3でデジタル信号とされた記録用画像を一時的に記憶するフレームメモリ31と、距離情報記憶部17aに記憶された各領域の被写体までの距離に基づいてフレームメモリ31から読み込んだ記録用画像信号(デジタル信号)に対してぼかし処理を施すローパスフィルタ部34と、ローパスフィルタ部34でぼかし処理が施された記録用画像信号より輝度信号及び色差信号を生成する信号処理部35と、を備える。距離検出部23は、フレームメモリ31に記憶された距離検出用画像(デジタル信号)を所定の領域に区分し、TG16から発信された画像中のアドレス情報であるHポジション及びVポジションに対応した水平同期信号(以下Hsyncとする)及び垂直同期信号(Vsync)を受けて各領域における撮像装置から被写体までの距離を検出し、CPU17の内部に設けられた距離情報記憶部17aではHsync及びVsync信号を受け距離検出部23で検出した各領域の被写体までの距離を記憶する。尚、距離情報記憶部17aはCPU17の内部に設けられたものに限られず、撮像装置の内部又は外部に設けられた記憶装置を用いても構わない。
次にこのように構成されるぼかし処理部30の動作について説明する。図2のSTEP203でぼかし処理モードが選択されていることを検出し、シャッターボタンが半押しにされていることを検出する(STEP204)と、距離検出用画像を撮影し、フレームメモリ31に記憶させる。距離検出部23ではフレームメモリ31に記憶された距離検出用画像を所定の領域に区分し各領域の撮像装置から被写体までの距離を検出し、距離情報記憶部17aでは距離検出部23で検出した各領域における被写体までの距離(以下距離情報とする場合もある)を記憶する(STEP205)。
ここで、距離検出部23の構成及び動作の一例について図を用いて説明する。図6は距離情報検出部の構成を示すブロック図、図7は距離情報を検出する動作を説明するためのフローチャートである。距離検出部23は、図6に示すように、合焦距離を変化させて撮影された複数枚の画像からなる距離検出用画像(デジタル信号)をフレームメモリ31から合焦距離の長いものの順に読み込んで所定の領域に区分し各領域の輝度信号の高周波成分の強度を検出する高周波成分検出部23aと、高周波成分検出部23aで検出されたある合焦距離での画像信号の各領域での高周波成分の強度とそれより長い合焦距離での画像信号の各領域での高周波成分の最高強度とを比較する高周波成分比較部23bとを備える。
次に距離検出部23の動作について説明する。まず、ステップ208のAF制御について説明する。AE設定(ステップ207)後、図7に示すように、レンズ部2の全合焦範囲のうち、最短距離である最近点に合焦距離(フォーカス位置)を設定する(ステップ701)。そして、そのフォーカス位置で距離検出用画像を撮影し、AFE3でデジタル信号に変換してフレームメモリ31に書き込む。高周波成分検出部23aでは、フレームメモリ31に記憶された最近点の距離検出用画像のデジタル信号を読み込んで所定の領域に区分し、各領域の輝度信号の高周波成分の強度を検出する(STEP702)。そして、AF評価エリアの重み付けを高く設定した全領域の輝度信号の高周波成分の強度から、AF評価値を算出する(STEP703)。
続いてフォーカス位置が無限遠であるかどうかを検知し、無限遠でない場合(STEP704でNo)、フォーカス位置を所定の間隔(1ステップ)遠くに設定する(STEP705)。そしてVsync信号を受ける(STEP706でYes)とそのフォーカス位置でのAF評価値を算出する(STEP703)。
STEP704でフォーカス位置が無限遠であることを検知すると(STEP704でYes)、レンズ部12のフォーカス位置をAF評価値が最大となった位置に移動する。このフォーカス位置で画像を撮影することとなる。
さらに、STEP209でぼかし処理モードであることを検出した場合、高周波成分比較部23bでは、フレームメモリ31に記憶された最近点から無限遠までの各フォーカス位置での画像の各領域の高周波成分の強度を最近点のものから順に高周波成分検出部23aから読み込む。、最初に最近点の画像と1ステップフォーカス位置の長い画像の各領域での高周波成分の強度を比較し、各領域について高い方の強度及びその合焦距離を記憶する。ある領域について、無限遠での高周波成分の強度をg1、1段階短い合焦距離での高周波成分の強度をg2とするとき、g1≧g2であればg1、g1<g2であればg2を、その合焦距離範囲での最高の強度Gとして合焦距離とともに記憶する。
次に、さらに1段階合焦距離の短い画像がある場合、その画像の各領域の高周波成分の強度を読み込み、記憶しているそれより長い合焦距離範囲(それまでに読み込んだ合焦距離範囲)での各領域の高周波成分の最高強度Hと比較する。そして、各領域について高い方の強度及びその合焦距離を記憶する。ある領域について、ある合焦距離での高周波成分の強度をgnとするとき、gn≧Gであればgn、を新たにGの値としてその合焦距離とともに更新し、gn<GであればそれまでのGの値と合焦距離とを維持する。
高周波成分の強度は撮像装置から被写体までの距離と合焦距離とが近いほど高くなる。この比較動作を全てのフォーカス位置の画像について完了すると、高周波成分比較部23bには各領域について高周波成分の最高の強度Hとその強度を示した合焦距離が記憶されており、これは各領域における撮像装置から被写体までの距離情報である。距離情報記憶部17aでは、各領域における最高強度を示した合焦距離を高周波成分比較部23bから読み込む(STEP205)。
図8は距離検出用画像及び記録用画像の一例である。図9は図8の画像を所定の領域に区分した一例であり、所定の領域を縦3列、横3行の合計9個からなるものとしている。図9の各領域を左上から右方向にR1、R2、…、R9とする。各領域は単数又は複数の画素からなる。又、図10は縦軸を高周波成分の強度、横軸を合焦距離としたR1、R2、…、R9の各領域の高周波成分の強度と合焦距離との関係を示すグラフである。上述のように、高周波成分は撮像装置から被写体までの距離と合焦距離とが近いほど強度が高くなる。
人物を含む領域である領域R5、R8についてのグラフは高周波成分が最大強度となる合焦距離は同じであるものの、その最大強度の大きさは異なる。即ちいずれの領域も被写体の位置が同じであるため最大強度となる合焦距離は同じとなる。しかし、領域に被写体のエッジを含んでいる、領域の全面を被写体が覆っているなど、領域毎に含まれる被写体の状態が異なるため、最大強度が異なるものとなる。
同様の理由で、建物を含む領域である領域R1、R2、R3、R6、R9についてのグラフも高周波成分が最大強度となる合焦距離は同じであるものの、最大強度の大きさは異なる。
1個の領域に距離の異なる複数の被写体が存在している場合は、複数の高周波成分の強度の極大値が現れることとなる。図11は撮像装置からの距離の異なる複数の被写体が存在している領域における高周波成分の強度と合焦距離との関係を示すグラフである。このように1個の領域中に高周波成分の強度の極大値が2箇所以上現れた場合、最大の強度となる合焦距離をその領域での被写体までの距離として採用してもよい。
又、所定の閾値以上の極大値を検出し、そのうち合焦距離の最も短いもの又は最も長いものを採用してもよい。又、所定の閾値以上の極大値を合焦距離の順に並べた際に中心となるものを合焦距離を採用してもよい。所定の閾値以上の極大値が偶数個の場合は中心がないため、中心に近い2個の閾値のうちいずれかを採用してもよい。
距離情報記憶部17aで各領域の被写体までの距離を記憶した後、構図、画角が変化したかどうかを検出する(STEP211)。構図、画角が変化したことを検出した場合については後述する。構図、画角が変化したことを検出せず(STEP211でNo)、シャッターボタンが全押しされていることを検出する(STEP213でYes)と、TG16より、イメージセンサ1、AFE3、画像処理部5及び圧縮処理部7それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させ、イメージセンサ1の駆動モードを静止画撮影モードに設定し(STEP214、イメージセンサ1から出力されるアナログ信号である画像信号(生データ)をAFE3でデジタル信号に変換して一旦画像処理部5内のフレームメモリに書き込む(STEP215)。ローパスフィルタ部34ではフレームメモリ31に記憶された記録用画像(デジタル信号)を読み込んで、上述の距離検出部23で区分した各領域について距離情報記憶部17aに記憶された各領域の被写体までの距離に基づいてぼかし度合いを設定し(STEP216)、設定したぼかし度合いに基づいて各領域にぼかし処理を実施する(STEP217)。ぼかし処理を行った画像について、圧縮処理部7においてJPEG形式に圧縮(STEP218)後、外部メモリ22に圧縮画像を書き込み(STEP219)、撮影を完了する。その後、プレビューモードに戻る(STEP202)。
STEP218でぼかし処理を行った画像信号を圧縮処理部7において圧縮する際に、ぼかし処理を行った画像信号のみならずぼかし処理を行っていない画像信号についても圧縮し、図12に示すように、外部メモリ22に書き込むファイル80には圧縮したぼかし処理を行っていない画像信号81に付加したヘッダ部82に、STEP210で距離情報記憶部17aに記憶された各領域における最高強度を示した合焦距離情報82aを併せて書き込んでもよい。このようなヘッダ部82に合焦距離情報を書き込む形式としては例えばexif形式を用いることができる。なお、外部メモリ22には、圧縮したぼかし処理を行った画像信号については書き込まず、ヘッダ部に合焦距離情報を有する圧縮したぼかし処理を行っていない画像信号のみを書き込むことをユーザが選択できるようにしても構わない。又、ヘッダ部82に書き込む情報は、圧縮したものであってもよい。
(構図、画角が変化したことを検出した場合)
ここで、STEP211で構図、画角が所定量以上変化したことを検出した場合、ユーザに対して画角が変化したこと及びシャッターボタンを開放して半押しし直すことをディスプレイ部12での表示やスピーカ部15からの音声によって通知し、シャッターボタンが半押しし直されたかどうかを検知する(STEP212)。半押しし直された場合(STEP212でYes)は再びAE調整(STEP207)、AF制御(STEP208)を経て、各領域における最高強度を示した合焦距離を検出し、記憶する(STEP210)。ここで、構図、画角の変化の検出は、CPU17で逐次算出されているAE評価値の変化や、逐次取り込まれてAFE3でデジタル信号化されるイメージセンサ1上の画像からCPU17で検出した被写体の動きベクトルの変化、又は加速度センサのような動きを検出するセンサによって検出することができる。
STEP212で半押しし直されず、STEP213で全押しされた場合はSTEP207以降の処理をぼかし処理を省略して続けてもよい。又、動きベクトルの変化や加速度センサによってシャッターボタンの半押しから全押しまでの間に構図、画角の変化した量を検出している場合は、その検出した変化量に基づいて変化する前の画像の距離情報を変化した後の画像に適合するようにシフトさせ、変化した後の画像の各領域に、各領域の被写体までの距離に基づいてぼかし度合いを設定し(STEP216)、ぼかし処理を実施してもよい(STEP217)。この場合、距離情報のない領域についてはぼかし処理は行わないでもよいし、当該領域の周辺の領域と同じ条件のぼかし処理を行ってもよい。
(ぼかし処理条件)
画像の各領域に対して、各領域の被写体までの距離に応じたぼかし処理が施される。そのぼかし処理の条件について説明する。ぼかし処理を行うローパスフィルタ部34では、カットオフ周波数を設定することによってぼかしの度合いを調整する。カットオフ周波数が高いほどぼかしの度合いが低く、カットオフ周波数が低いほどぼかしの度合いが高い。カットオフ周波数がナイキスト周波数の場合にはぼかし処理は行われない。
本実施形態では、被写体までの距離が撮像装置近傍から所定の距離D1までの近距離範囲ではぼかし処理は行わず、距離D1から距離D2(D2>D1)の中距離範囲では距離が長いほどぼかしの度合いを高める。距離D2よりも遠い範囲である遠距離範囲では一定のぼかし度合いとして中距離範囲の最も高いぼかし度合いを適用する。図13は、このカットオフ周波数と被写体までの距離との関係を表すグラフである。近距離範囲ではカットオフ周波数はナイキスト周波数Nで一定とし、中距離範囲では距離が長いほどカットオフ周波数は低下し、遠距離範囲では中距離範囲で最も低いカットオフ周波数で一定とする。このようにカットオフ周波数を設定することにより、ぼかし処理によって得られた画像は近距離範囲の被写体が中距離範囲及び遠距離範囲の被写体から浮き上がった立体感のあるものとなる。
(カットオフ周波数の補間)
しかし、隣接する領域間でぼかし処理に用いるカットオフ周波数が異なると、領域の境界ではぼかしの度合いの違いによって境界が現れることとなる。そこで、領域間で境界を目立たなくするように、カットオフ周波数の異なる隣接する領域を構成する画素のぼかし処理に用いるカットオフ周波数にグラデーションを与える。
図14に4個の領域の模式図を示す。領域71〜74の中心をそれぞれ71a〜74a、領域71〜74の4個の領域が共有する点を原点O、図面横方向をx軸、縦方向をy軸とし、各領域の1辺の長さを2aとする。このとき中心71aの座標は(a,a)、中心72aの座標は(−a,a)、中心73aの座標は(−a,−a)、中心74aの座標は(a,−a)である。
各領域の中心に位置する画素では各領域に設定されたぼかし度合いであるカットオフ周波数をぼかし処理に用い、原点Oを共有する4個の領域の中心に囲まれた画素では各領域に設定されたカットオフ周波数をその画素から各領域の中心までの距離で線形補間したものをぼかし処理に用いる。ここでは、図14に示す領域71に属し、中心71a〜74aに囲まれた画素71bについて考える。領域71〜74に設定されたカットオフ周波数をそれぞれh1、h2、h3、h4とし、画素71bにおけるカットオフ周波数をZ、画素71bの座標を(x,y)とすると、
Z=[{(a+x)h1+(a−x)h2}/2a](a+y)/2a
+[{(a+x)h3+(a−x)h4}/2a](a−y)/2a
となる。なお、隣接する2個の領域の中心を結ぶ線上の画素ではこれらの2個の領域に設定されたカットオフ周波数を線形補間したものをぼかし処理に用いる。
図15は異なるカットオフ周波数の間を線形補間によりグラデーションを与えて変化させたカットオフ周波数のグラフである。図15のグラフ上に5点のカットオフ周波数h1、h2、h5〜h7を示す。h5〜h7は、h1とh2の間で線形補間したものである。h1は図14の領域71のカットオフ周波数であり、h2は領域72のカットオフ周波数である。中心71aにはh1、中心72aにはh2が適用される。h5〜h7はそれぞれ、中心71aと中心72aとを結ぶ線上に、中心71aと中心72aを含めて略等間隔に並んだ3個の画素である、画素71c、画素71d、画素72b(中心71a側から順に)について適用される。このようにしてカットオフ周波数を補間して画素毎にグラデーションを与えて変化させることにより、ぼかし処理後の画像は領域間での境界が目立たないものとなる。
尚、領域71〜73が画像の外周に位置する領域である場合、図14上の座標(a,2a)の点71e、座標(−a,2a)の点72c、座標(−2a,2a)の点72d、座標(−2a,a)の点72e、座標(−2a,−a)の点73bを設定すると、点71c、72e、72a、71aで囲まれた部分では点72aと点71aとを結ぶ線分上のx座標が同じ点のカットオフ周波数、点72a、72e、73b、73aで囲まれた部分では点72aと点73aとを結ぶ線分上のy座標が同じ点のカットオフ周波数、点72c、72d、72e、72aで囲まれた部分では点B即ち中心72aのカットオフ周波数を適用する。
〈第2の実施形態〉
本発明の第2の実施の形態について、図面を参照して説明する。本実施形態は、ぼかし処理部の構成が異なる以外は第1の実施形態と同じであり、実質上同一の部分には同一の付している。
本実施形態では、各領域を被写体までの距離別に複数のグループに区分してぼかし処理を行う。この場合、各グループに対して所定のカットオフ周波数を設定し、適用する。
ここでは例として、距離グループを近景、中景、遠景の3種類に区分する場合について説明する。図16は、第1の実施形態の図11のグラフにおいて、被写体までの距離がD1未満の場合を近景、D1以上D2未満の場合を中景、D2以上の場合を遠景とした例である。ここで、D1とD2の関係はD1<D2である。尚、距離グループの数は3個に限られず、2個以上であればよい。
図17は第2の実施形態に係るぼかし処理部のブロック図である。本実施形態のぼかし処理部30のローパスフィルタ部34は、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34c、乗算係数設定部37及び加算器38を備える。近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cはそれぞれ乗算器36が後段に直列に接続されている。近景用ローパスフィルタ34aと乗算器36、中景用ローパスフィルタ34bと乗算器36、遠景用ローパスフィルタ34cと乗算器36は、それぞれフレームメモリ31と信号処理部35との間に並列に接続されている。乗算係数設定部37は距離情報記憶部17aに記憶された各領域の被写体までの距離に基づき各乗算器36での乗算に用いる乗算係数を設定するものであり、距離情報記憶部17aと各乗算器36との間に接続される。
近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのカットオフ周波数と出力レベルとは、図18のグラフに示すような関係を有する。図18は横軸をカットオフ周波数、縦軸を出力レベルとしたグラフであり、入力画像信号のレベルも併せて示している。カットオフ周波数と出力レベルとの関係は、いずれも周波数の低い範囲では出力レベルは1.0で一定であり、所定の周波数以上では周波数が高いほど出力レベルが低くなり、最後には0となる。出力レベルが低下し始める周波数及び0となる周波数は、近景用ローパスフィルタ34aが最も高く、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cの順に低くなる。尚、本実施形態では近景用ローパスフィルタ34aのカットオフ周波数と出力レベルとの関係は、入力画像と同様の関係を有しているため、近景用ローパスフィルタ34aは設けなくてもよい。
乗算係数設定部37では、画像の各領域に、その領域の距離情報に基づいて各乗算器36についての乗算係数を設定する。図19は被写体までの距離と乗算係数との関係の一例を示すグラフである。図19には近景用の乗算係数KNが実線で、中景用の乗算係数KMが一点鎖線で、遠景用の乗算係数KFが二点鎖線で示されている。近景用の乗算係数KNは、D1未満の範囲では1.0で一定であり、D1以上の範囲では0で一定である。中景用の乗算係数KMは、D1未満の範囲では0で一定であり、D1以上D2未満の範囲では1.0で一定であり、D2以上の範囲では0で一定である。遠景用の乗算係数KFは、D2未満の範囲では0で一定であり、D2以上の範囲では1.0で一定である。このように、乗算係数KF、KM、KFの和は被写体までの距離によらず1.0で一定である。
次に本実施形態のぼかし処理について説明する。フレームメモリ31に記憶された記録用画像を読み込み、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのそれぞれによってぼかし処理を施す。一方、乗算係数設定部37では、距離情報記憶部17aに記憶された各領域の被写体距離に応じた乗算係数を、各領域について設定する。
ローパスフィルタ34a、34b、34cでぼかし処理が施された画像は、乗算係数設定部37で設定された乗算係数で乗算器36によって各領域毎に乗算が施され、加算器38で加算される。加算器38で加算された画像は、被写体までの距離がD1未満の領域は、近景用ローパスフィルタ34aに対しての乗算係数が1.0であり、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であるため、近景用ローパスフィルタ34aのみでぼかし処理が施されたものとなる。近景用ローパスフィルタ34aが設けられていない場合は元の画像のままとなる。同様に、被写体までの距離がD1以上D2未満の領域は中景用ローパスフィルタ34bのみ、被写体までの距離がD2以上の領域は遠景用ローパスフィルタ34cでぼかし処理が施されたものとなる。図20は、R1〜R9の9個の領域に区分された画像をぼかし処理した画像の模式図である。近景に属する領域R5、R8と、中景に属する領域R4、R7と、遠景に属する領域R1、R2、R3、R6、R9とでぼかし具合が異なり、遠景は大きくぼけ、中景は少しぼけ、近景はそのままである画像となる。その結果、ぼかし処理によって得られた画像は近景が中景、遠景から浮き上がった立体感のあるものとなる。
このように構成することにより、距離情報記憶部17aに記憶する各領域についての距離情報は、詳細な距離情報ではなく、大まかな情報であるその領域の属する距離グループとすることができるため、処理速度を向上させることができる。
〈第3の実施形態〉
本発明の第3の実施形態について図面を参照して説明する。本実施形態は、ぼかし処理部の構成及び乗算係数と被写体距離との関係が異なる以外は第2の実施形態と同じであり、実質上同一の部分には同一の符号を付している。
図21は本実施形態に係るぼかし処理部のブロック図である。本実施形態のぼかし処理部30は、図17の第2の実施形態のぼかし処理部にエッジ信号生成部39が設けられたものである。エッジ信号生成部39は乗算器36が後段に直列に接続されている。エッジ信号生成部39と乗算器36は、フレームメモリ31と信号処理部35との間に並列に接続されており、この乗算器36には乗算係数設定部37が接続されている。
図22は本実施形態の、被写体までの距離と乗算係数との関係の一例を示すグラフである。図22には近景用の乗算係数KN、中景用の乗算係数KM、遠景用の乗算係数KFに加えてエッジ信号用の乗算係数KEが示されている。本実施形態では、近景用の乗算係数KNは、D1−d1未満の範囲では1.0で一定であり、D1−d1以上D1+d1未満の範囲では1.0から0まで距離に比例して減少し、D1+d1以上の範囲では0で一定である。中景用の乗算係数KMは、D1−d1未満の範囲では0で一定であり、D1−d1以上D1+d1未満の範囲では0から1.0まで距離に比例して増加し、D1+d1以上D2−d2未満の範囲では1.0で一定であり、D2−d2以上D2+d2未満の範囲では1.0から0まで距離に比例して減少し、D2+d2以上の範囲では0で一定である。遠景用の乗算係数KFは、D2−d2未満の範囲では0で一定であり、D2−d2以上D2+d2未満の範囲では0から1.0まで距離に比例して増加し、D2+d2以上の範囲では1.0で一定である。尚、d1とd2との関係は、D1+d1<D2−d2である。又、乗算係数KF、KM、KFの和は被写体までの距離によらず1.0で一定である。そして、エッジ信号用の乗算係数KEは、D0未満の範囲では1.3で一定であり、D0以上D1−d1未満の範囲では1.3から0まで距離に比例して減少し、D1−d1以上の範囲では0で一定である。乗算係数KEは、他の乗算係数から独立した数値である。
図22に示す、乗算係数KN、KM、KF、KEと被写体までの距離Dとの関係を数式で表すと以下のようになる。ここで、D1−d1≦D<D1+d1での乗算係数KMの傾きをk1(k1>0,k1=1/(2×d1))、D2−d2≦D<D2+d2での乗算係数KFの傾きをk2(k2>0,k2=1/(2×d2))、D0≦D<D1−d1での乗算係数KEの傾きを−k0(k0>0,k2=1.3/(D1−d1−D0))とする。
KN=1.0 …(D<D1−d1)
=−k1×{D−(D1+d1)} …(D1−d1≦D<D1+d1)
=0 …(D1+d1≦D)
KM=0 …(D1+d1≦D)
=k1×{D−(D1−d1)} …(D1−d1≦D<D1+d1)
=1.0 …(D1+d1≦D<D2−d2)
=−k2×{D−(D2+d2)} …(D2−d2≦D<D2+d2)
=0 …(D2+d2≦D)
KF=0 (D<D1−d1)
=k2×{D−(D2−d2)} …(D2−d2≦D<D2+d2)
=1.0 …(D2+d2≦D)
KE=1.3 …(D<D0)
=−k0×{D−(D1−d1)} …(D0≦D<D1−d1)
=0 …(D1−d1≦D)
次に本実施形態のぼかし処理について説明する。フレームメモリ31に記憶された記録用画像を読み込み、近景用ローパスフィルタ34a、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cのそれぞれによってぼかし処理を施し、エッジ信号生成部39ではエッジ信号を生成する。一方、乗算係数設定部37では、距離情報記憶部17aに記憶された各領域の被写体距離に応じた乗算係数を、各領域について設定する。
ローパスフィルタ34a、34b、34cでぼかし処理が施された画像及びエッジ信号生成部39で生成されたエッジ信号は、乗算係数設定部37で設定された乗算係数で乗算器36によって各領域毎に乗算が施され、加算器38で加算される。
加算器38で加算された画像は、被写体までの距離がD0未満の領域は、近景用ローパスフィルタに対しての乗算係数が1.0、エッジ信号生成部39に対しての乗算係数が1.3で一定であり、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であるため、近景用ローパスフィルタ34aのみでぼかし処理が施され、エッジ信号によりエッジが強調されたものとなる。被写体までの距離がD0以上D1−d1未満の領域は、近景用ローパスフィルタ34aに対しての乗算係数が1.0で一定で、中景用ローパスフィルタ34b、遠景用ローパスフィルタ34cに対しての乗算係数が0であり、エッジ信号生成部39に対しての乗算係数が1.3から0まで距離に比例して減少するため、被写体までの距離がD0未満の領域と比べると距離が増加するにしたがってエッジの強調が抑えられたものとなる。近景用ローパスフィルタ34aが設けられていない場合は元の画像のエッジが強調されたものとなる。
被写体までの距離がD1−d1以上の領域では、エッジ信号生成部39に対しての乗算係数が0であるため、エッジは強調されない。被写体までの距離がD1−d1以上の領域のうち、被写体までの距離がD1+d1以上D2−d2未満の領域は中景用ローパスフィルタ34bのみ、被写体までの距離がD2+d2以上の領域は遠景用ローパスフィルタ34cでぼかし処理が施されたものとなる。
被写体までの距離がD1−d1以上D1+d1未満の領域は、遠景用ローパスフィルタ34cに対しての乗算係数は0であるものの、近景用ローパスフィルタ34aに対しての乗算係数は1.0から0まで距離に比例して減少し、中景用ローパスフィルタ34bに対しての乗算係数は0から1.0まで距離に比例して増加するため、近景用ローパスフィルタ34aで処理された画像と中景用ローパスフィルタ34bで処理された画像とが混合されたものとなる。なお、D1−d1以上D1+d1未満の範囲では距離に比例して近景用ローパスフィルタ34aよりも中景用ローパスフィルタ34bでの処理の影響が大きくなる。同様に、被写体までの距離がD2−d2以上D2+d2未満の領域は、近景用ローパスフィルタ34aで処理された画像と中景用ローパスフィルタ34bで処理された画像とが混合されたものとなる。これにより、被写体までの距離がD1近傍又はD2近傍の領域が隣接している場合に、ぼかし処理の度合いが急激に変化して不自然なぼかし処理が施された画像となるのを抑制することができる。
尚、本実施形態において、各領域を被写体までの距離によって複数の距離グループに区分して、各距離グループ毎に属する領域の被写体までの距離の平均を算出し、その平均を各領域の被写体までの距離として用いても構わない。例えば、図16に示す距離と高周波成分の強度との関係を示すグラフにおいて、高周波成分の最大値を示す距離即ち被写体までの距離がD1未満の領域についてはR5とR8の高周波成分の最大値を示す距離の平均であるD11を、被写体までの距離がD1以上D2未満の領域についてはR4とR7の最大値を示す距離の平均であるD12を、被写体までの距離がD2以上である領域についてはR1、R2、R3、R6、R9の最大値を示す距離の平均であるD13を、それぞれ該当する距離グループに属する領域の被写体までの距離として用いることができる。この場合、各領域についての距離情報の管理を簡素化できるため、ぼかし処理の高速化を図ることができる。この場合、第1の実施形態で説明したカットオフ周波数の補間方法を適用することにより、ぼけ具合の異なる領域間の境界を目立たなくして自然なぼけ具合とすることができる。尚、このように算出した距離情報は第1の実施形態においても適用することができる。
又、本実施形態において、被写体のエッジを強調しない場合はエッジ信号生成部39は設けなくてもよい。
又、本実施形態のローパスフィルタ部34において、近景用ローパスフィルタ34aを、対応する乗算器36を残したまま取り除き、乗算係数を適切に設定することにより、第1の実施形態のローパスフィルタ部34と同様の構成とすることができる。
〈変形例1〉
又、本発明の第1〜第3の実施形態においてSTEP205で各領域の距離情報を取得する際に、画像中で所定の大きさ以上の人物の顔を検出し、その顔を含む領域の距離を含む所定の距離範囲の領域にはぼかし処理は施さないものとしてもよい。これにより、人物を含む領域にぼかし処理を施してしまう可能性を低減することができる。
又、その顔を含む領域の被写体までの距離を含む所定の距離範囲の領域にはぼかし処理は施さず、その所定の距離範囲よりも短い距離及び長い距離の領域にぼかし処理を施すものとしてもよい。この場合、その所定の距離範囲よりも離れるほどぼかし度合いを高くしてもよい。これにより、画像中の人物をより自然に浮き上がらせることができる。
又、画像の領域を距離グループに区分した場合は、その顔を含む領域と同じ距離グループに属する領域にはぼかし処理を施さず、それ以外の領域にはぼかし処理を施すものとしてもよい。
ここで顔検出処理について説明する。画像処理部5は顔検出装置50を備え、入力された画像信号から人物の顔を検出することができる。顔検出装置50の構成及び動作について以下に説明する。
図23は、顔検出装置50の構成を示している。顔検出装置50は、AFE3によって得られた画像データに基づいて1又は複数の縮小画像を生成する縮小画像生成手段51、入力画像および縮小画像から構成される各階層画像とメモリ18に記憶された顔検出用の重みテーブルとを用いて入力画像に顔が存在するか否かを判定する顔判定手段52、および顔判定手段52の検出結果を出力する検出結果出力手段53を備えている。検出結果出力手段53は、顔が検出された場合には、入力画像を基準とする検出された顔の大きさと位置とを出力する。
又、メモリ18に記憶された重みテーブルは、大量の教師サンプル(顔および非顔のサンプル画像)から求められたものである。このような重みテーブルは、例えば、Adaboostと呼ばれる公知の学習方法を利用して作成することができる(Yoav Freund, Robert E. Schapire,"A decision-theoretic generalization of on-line learning and an application to boosting", European Conference on Computational Learning Theory, September 20,1995.)。
尚、Adaboostは、適応的なブースティング学習方法の1つで、大量の教師サンプルをもとに、複数の弱識別器候補の中から識別に有効な弱識別器を複数個選択し、それらを重み付けして統合することによって高精度な識別器を実現する学習方法である。ここで、弱識別器とは、全くの偶然よりは識別能力は高いが、十分な精度を満たすほど高精度ではない識別器のことをいう。弱識別器の選択時には、既に選択した弱識別器がある場合、選択済の弱識別器によって誤認識してしまう教師サンプルに対して学習を重点化することによ
って、残りの弱識別器候補の中から最も効果の高い弱識別器を選択する。
図24は、縮小画像生成手段51によって得られる階層画像の一例を示している。この例では、縮小率Rを0.8に設定した場合に、生成される複数の階層画像を示している。図24において、60は入力画像を、61〜65は縮小画像を示している。68は判定領域を示している。この例では、判定領域は縦24画素、横24画素の大きさに設定されている。判定領域の大きさは、入力画像および各縮小画像においても同じである。又、この例では、矢印で示すように、階層画像上で判定領域を左から右に移動させる、水平方向走査を、上方から下方に向かって行うことで、判定領域とマッチングする顔画像の検出を行う。ただし、走査順はこれに限られるものではない。入力画像60の他に、複数の縮小画像61〜65を生成しているのは、1種類の重みテーブルを用いて大きさが異なる顔を検出するためである。
図25は顔検出処理を説明するための図である。顔判定手段52による顔検出処理は、各階層画像毎に行なわれるが、処理方法は同様なので、ここでは入力画像60に対して行なわれる顔検出処理についてのみ説明する。
各階層画像毎に行なわれる顔検出処理は、画像内に設定された判定領域に対応する画像と重みテーブルとを用いて行なわれる。顔検出処理は粗い判定から順次細かい判定に移行する複数の判定ステップからなり、ある判定ステップにおいて、顔が検出されなかった場合には、次の判定ステップには移行せず、当該判定領域には顔は存在しないと判定する。全ての判定ステップにおいて、顔が検出された場合にのみ、当該判定領域に顔が存在すると判定し、判定領域を走査して次の判定領域での判定に移行する。このようにして、検出された顔の位置及び大きさは検出結果出力手段53によって出力される。尚、このような顔検出処理については、本願出願人による特許出願である特願2006−053304号に詳しく記載されている。
尚、本発明の第1〜第3の実施形態において、画像を分割して得られる領域は、細かく区分するほど、距離の異なる複数の被写体が含まれる領域の割合が小さくなり、領域間の境界が目立ちにくくなるため、良好なボケ味の画像生成が可能となる。
〈変形例2〉(距離依存階調補正)
又、本発明の第1〜第3の実施形態において、ぼかし処理に加えて、領域毎に被写体までの距離に依存した階調補正を画像に施してもよい。以下に、このような階調補正方法について説明する。
この場合、ぼかし処理部30は、画像中の被写体の距離情報と輝度情報を算出してそれに基づいた階調補正を撮影した画像に施すことができる機能を備え、このような撮影モードを階調補正モードと呼ぶ。
図26は距離依存階調補正機能を備えたぼかし処理部30の構成を示すブロック図である。ぼかし処理部30は、フレームメモリ31、ローパスフィルタ部34、信号処理部35に加えて、フレームメモリ31に記憶された記録用画像のデジタル信号を読み込んで上述の所定の領域に区分し各領域の平均輝度を算出する輝度情報算出部41と、輝度情報算出部41で算出された各領域の平均輝度を記憶する輝度情報記憶部42と、距離情報記憶部17aに記憶された各領域の被写体までの距離と輝度情報記憶部42に記憶された各領域の平均輝度とメモリ14に記憶された階調補正テーブルに基づいてフレームメモリ31から読み込んだ記録用画像信号(デジタル信号)に対して階調補正を施す階調補正部43と、を備え、信号処理部35ではローパスフィルタ部34及び階調補正部43の少なくとも一方で画像処理が施された記録用画像信号より輝度信号及び色差信号を生成する。
次に距離依存階調補正機能を備えたぼかし処理部30の動作について説明する。図27は、図2のフローチャートの一部に距離依存階調補正機能に関する部分を追加したものである。この場合、図2のフローチャートにおける、STEP202における撮影モードの選択肢としてぼかし処理モードに加えて階調補正モードも含まれる。階調補正モードが選択された場合、ぼかし処理モードも同時に選択され、第1〜第3の実施形態と同様のぼかし処理が図2のSTEP210まで行われる。次に、階調補正モードが選択されているかどうかを検出し(STEP2701)、選択されていない場合はぼかし処理を施した画像の圧縮画像を生成し(STEP211)、上述の第1〜第3の実施形態と同様の処理が継続される。
階調補正モードが選択されている場合、輝度情報算出部41ではフレームメモリ31に記憶された記録用画像(デジタル信号)を読み込んで、上述の距離検出部23で区分したものと同じ所定の領域に区分して各領域について平均輝度を算出し、輝度情報記憶部42では輝度情報算出部41で算出された平均輝度を記憶する(STEP2702)。
階調補正部43では、輝度情報記憶部42から各領域の平均輝度を読み込んで、各領域を平均輝度によってグループ化する。例えば平均輝度がLa以上の高輝度、平均輝度がLb以上La未満の中輝度、平均輝度がLb未満の低輝度の3個のグループにグループ化する。ここで、La、Lbは撮像装置に応じて設定可能な任意の値である。さらに、メモリ14に記憶された合焦距離のグループ及び平均輝度のグループ毎に設定された階調補正テーブルを読み込み、各領域の属する合焦距離のグループ及び平均輝度のグループに基づいて階調補正の入出力特性を割り当てる(STEP2703)。
続いて、フレームメモリ31に記憶された記録用画像を読み込んで各領域にこの階調補正テーブルを適用して階調補正を行う(STEP2704)。階調補正を行った画像について、圧縮処理部6においてJPEG形式に圧縮(STEP211)する。
STEP211でぼかし処理及び階調補正を含む画像補整を行った画像信号を圧縮処理部6において圧縮する際にも、画像補正を行った画像信号のみならず画像補正を行っていない画像信号についても圧縮し、図12に示すヘッダ部82に、合焦距離情報82aに加えてSTEP2702で輝度情報記憶部42に記憶された各領域についての平均輝度情報を併せて書き込んでもよい。
(階調補正テーブル)
次に、階調補正テーブルについて説明する。本実施形態の階調補正テーブルは、近景、中景、遠景の3個の距離グループ及び高輝度、中輝度、低輝度の3個の平均輝度グループに対して割り当てられた図28(a)〜図28(i)のグラフに示す9個の入出力特性からなる。各グラフは横軸を階調補正前の入力輝度値、縦軸を階調補正後の出力輝度値とするものである。この入出力特性に基づいて各領域を構成する各画素は輝度が変換される。
まず、中景のグループに属する領域に対して割り当てられた入出力特性について説明する。図28(d)〜図28(f)はいずれも中景のグループに属する領域に対して割り当てられた入出力特性であり、領域内の画素の輝度にかかわらずグラフの傾きkは例えば1として一定とし、特に変換しない。これにより、補正後の近景及び遠景の中間的な輝度の画像となる。
次に近景のグループに属する領域に対して割り当てられた入出力特性について説明する。近景に属する領域は、画像中で中景、遠景よりも強調するように補正する。
図28(a)は近景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を低く変換するもので、輝度がL11以上の部分のグラフの傾きをk11、L11以下の部分の傾きをk13とすると、k13<k<k11として(kは中景のグループに属する領域に対して割り当てられた入出力特性の傾き)、輝度の高い部分では階調幅を広げるように変換する。ここでは輝度L11と、平均輝度で画面の各領域をグループ化する際の基準としたLaとの関係をL11<Laとして、対象となる領域の属する高輝度範囲全体で階調幅を広げるように変換することとしている。
図28(b)は近景かつ中輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL21以上の部分でのグラフの傾きをk21、L22以上L21以下の部分の傾きをk22、L22以下の部分での傾きをk23とすると、k21(k23)<k<k22として、輝度の高い部分ではより輝度を高く変換し、輝度の低い部分ではより輝度を低く変換してコントラストをはっきりさせる。傾きk21とk23はどちらが大きくてもよいし、同じであってもよい。ここでは輝度L21及びL22とLa及びLbとの関係をL22<Lb<La<L21として対象となる領域の属する中輝度範囲全体の階調幅を広げるように変換することとしている。
図28(c)は近景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を高くして強調するもので、輝度がL32以上の部分の傾きをk31、L32以下の部分の傾きをk33とすると、k31<k<k33として、低輝度部分の階調幅を広げるように変換する。ここでは輝度L32とLbとの関係をLb<L32として、対象となる領域の属する低輝度範囲全体の階調幅を広げるように変換することとしている。
次に遠景のグループに属する領域に対して割り当てられた入出力特性について説明する。遠景に属する領域は、画像中で近景、中景よりも目立たないように補正する。
図28(g)は遠景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL71以上の部分の傾きをk71、L71以下の部分の傾きをk73とすると、k71<k<k73として、高輝度部分の階調幅を狭くするように変換してコントラストを低くする。さらに出力輝度値の高輝度部分をカットして全体に暗くする。ここでは輝度L71とLaとの関係をL71<Laとして対象となる領域の属する高輝度範囲全体で階調幅を狭くするように変換している。
図28(h)は遠景かつ中輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がL81以上の部分での傾きをk81、L82以上L81以下の部分での傾きをk82、L82以下の部分での傾きをk83とすると、k82<k<k81(k83)として、輝度の高い部分では輝度を低くし、輝度の低い部分では輝度を高くするように変換し、中輝度部分では階調幅を狭くするように変換して全体的に輝度を平均化しコントラストを低くする。傾きk81とk83はどちらが大きくてもよいし、同じであってもよい。ここでは輝度L81及びL82とLa及びLbとの関係をL82<Lb<La<L81として対象となる領域の属する中輝度範囲全体の階調幅を狭くするように変換することとしている。
図28(i)は遠景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、出力輝度値の低輝度部分をカットして(オフセットを設けて)全体に明るくし、輝度がL92以上の部分のグラフの傾きをk91、L91以下の部分の傾きをk93とすると、k93<k<k91として、高輝度部分の階調幅を広くするように変換し、低輝度部分の階調幅を狭くするように変換してコントラストを低くする。ここでは輝度L92とLbとの関係をLb<L92として、対象となる領域の属する低輝度範囲全体の階調幅を広くするように変換しすることとしている。
以上のような階調補正テーブルを用いて距離依存階調補正を行うことにより、近景はコントラストが高く、遠くなるにしたがってコントラストが低くなり、奥行き感のある立体的な画像を得ることができる。尚、本発明の撮像装置において、ぼかし処理と距離依存階調補正の順序は逆であっても構わない。又、本発明の撮像装置はぼかし処理機能又は距離依存階調補正機能の一方だけを有するものであっても構わない。
(入出力特性の補間1)
しかし、領域間で階調補正に用いる入出力特性が異なると、領域の境界では画像に特性の違いによって境界が現れることとなる。そこで、領域間で境界をぼかして目立たなくするように、入出力特性の異なる隣接する領域を構成する画素の階調補正に用いる入出力特性にグラデーションを与える。この場合も、図14を用いて説明したカットオフ周波数の線形補間と同様の方法を用いることができる。
図29は異なる入出力特性の間を線形補間によりグラデーションを与えて変化させた入出力特性のグラフである。図29に5本の入出力特性のグラフp1〜p5を示す。p2〜p3は、p1とp5の間を等間隔で線形補間したものである。p1は図14の領域71の入出力特性であり、図28(c)である。p5は領域72の入出力特性であり、図28(f)である。中心71aにはp1、中心72aにはp2が適用される。p2〜p4はそれぞれ、中心71aと中心72aとを結ぶ線上に、中心71aと中心72aを含めて略等間隔に並んだ3個の画素である、画素71c、画素71d、画素72b(中心71a側から順に)について適用される。このようにして入出力特性を補間して画素毎にグラデーションを与えて変化させることにより、距離依存階調補正後の画像は領域間での境界がぼかされ目立たないものとなる。
(入出力特性の補間2)
尚、各領域を属する距離範囲によってグループ化せず、各領域の被写体までの距離によって階調補正に適用する入出力特性を変化させてもよい。複数の特定の距離の領域に対して入出力特性を設定し、特定の距離の間の距離の領域については、入出力特性としてその距離に隣接する特定の距離の領域に設定された入出力特性から補間したものを適用する。距離sと距離tは入出力特性が設定されており、距離sについて設定された入出力特性がS、距離tについて設定された入出力特性がTであるとき、距離sと距離tの間の入出力特性が設定されていない距離uについての入出力特性Uは、入出力特性T、Sを距離uに対して線形補間して、
U={S(t−u)+T(u−s)}/(t−s) …(1)
とすることができる。尚、入出力特性が設定された最も短い距離より短い距離については最も短い距離に設定された入出力特性を適用し、入出力特性が設定された最も長い距離より長い距離については最も長い距離に設定された入出力特性を適用する。
例として図28の階調補正テーブルの図28(a)〜図28(c)を被写体までの距離が2m、図28(d)〜図28(f)を距離が6m、図28(g)〜図28(i)を距離が10mの領域に適用する入出力特性とする。このとき、被写体までの距離が5mであり、平均輝度が中輝度である領域については、図28(b)と図28(e)を線形補間した入出力特性を適用する。図28(b)の入出力特性をS、図28(e)の入出力特性をTとして上述の数式(1)を適用すると、この領域に適用する入出力特性Uは、s=2、t=6、u=5より、U=(S+3T)/4となる。図30にこのときの入出力特性Uのグラフを示す。図30において、q1は図28(b)、q2は図28(e)、q3は入出力特性Uのグラフである。
このようにすることで、各領域を属する距離範囲によってグループ化する必要がなくなる。この場合においても、(入出力特性の補間1)で説明したように、ある点を共有する領域の4個の中心に囲まれた画素について、入出力特性を線形補間しても構わない。
尚、階調補正テーブルは3段階の輝度範囲及び3段階の距離範囲に対する9個の入出力特性からなるものに限られず、距離範囲が2段階以上であればよく、更には輝度範囲及び距離範囲の少なくとも一方が2段階以上であってもよい。又、輝度範囲と距離範囲とは同数でなくてもよく、輝度範囲は単数であってもよい。又、入出力特性は図28に示したような直線からなるものではなく、曲線からなるものであってもよい。
図31に、高輝度と低輝度の2段階の輝度範囲及び近景と遠景の2段階の距離範囲に対する4個の入出力特性からなる階調補正テーブルの例を示す。この場合も、近景に属する領域は画像中で遠景よりも強調するように補正し、遠景に属する領域は画像中で近景よりも目立たないように補正する。
図31(a)は、近景かつ高輝度領域のグループに属する領域に対して割り当てられた入出力特性である。これは、より輝度を高く変換し、輝度の低い部分ではより輝度を低く変換してコントラストをはっきりさせる。図31(a)に示す右上がりの破線で表される入力と出力が等しい直線の傾き(=1)と比較すると、輝度がLa1よりも高い部分とLa2よりも低い部分では曲線の接線の傾きは1よりも小さい。輝度がLa2よりも高くLa1よりも低い部分では曲線の接線の傾きは1よりも大きく、階調幅を広くするように変換する。
図31(b)は近景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、全体の輝度を高くするもので、輝度がLb1より高い部分では接線の傾きを1より小さく、Lb1より低い部分では1より大きくして、低輝度部分の階調幅を広くするように変換する。
図31(c)は遠景かつ高輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、輝度がLc1より高い部分では接線の傾きを1より小さく、Lc1より低い部分では1より大きくして、高輝度部分の階調幅を狭くするように変換してコントラストを低くする。さらに出力輝度値の高輝度部分をカットして全体に暗くする。
図31(d)は遠景かつ低輝度のグループに属する領域に対して割り当てられた入出力特性である。これは、出力輝度値の低輝度部分をカットして(オフセットを設けて)全体に明るくし、接線の傾きを全体に1より小さいものとして、コントラストを低くするように変換する。
このような階調補正テーブルを用いることにより、近景は明るく鮮鋭感を持つように、遠景ではコントラストの低い眠たいものとなるように変換することによって、奥行き感のある画像に変換することができる。
又、図31の階調補正テーブルにおいて、遠景かつ高輝度のグループに属する領域に対しては図28(c)に代えて図32に示す入出力特性を、遠景かつ低輝度のグループに属する領域に対しては図28(d)に代えて図33に示す入出力特性を適用してもよい。
図32は、S字状のカーブの膨らみを図31(a)よりも小さくしてコントラストの強調を抑えたものである。図33は、輝度がLd1以下の部分を真っ黒なものとし、カーブの膨らみを図31(b)よりも小さくして全体の輝度の高め方を抑えたものである。このような階調補正テーブルを用いることにより、コントラストの強調を近景では強め、遠景では弱めることによって、自然に近景の被写体を強調した画像に変換することができる。
〈変形例2〉
(撮影後に画像処理を行う場合)
尚、上述の説明において、図1に示すような構成の撮像装置を例に挙げて、本発明における画像処理方法について説明したが、撮像装置に限らず、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置においても、本発明における画像処理方法を利用可能である。図34に、本発明における画像処理方法(ぼかし処理及び距離依存階調補正)を行う画像処理装置(「画像処理部」に相当)を備えた表示装置を示す。
図34に示す表示装置は、図1に示す撮像装置と同様、ドライバ部8、伸長処理部9、ディスプレイ部12、音声出力回路部13、スピーカ部15、TG16、CPU17、メモリ18、操作部19、バス回線20,21及び外部メモリ22を備える。そして、図1と異なり、画像処理部5に代えて伸長処理部9で取得した画像信号を処理する画像処理装置5aを備える。画像処理装置5aは、図26に示すぼかし処理部30を有する。外部メモリ22では、本実施形態の撮像装置において撮影時に画像補正を行っていない画像信号に領域毎の距離情報及び平均輝度情報を有するヘッダを有する画像ファイルを保持している。
図35は、本実施形態の表示装置においてぼかし処理及び距離依存階調補正の画像処理を行う場合のフローチャートである。ユーザが表示装置を画像処理モードにし(STEP3501)、ディスプレイ部12に表示する画像を選択する(STEP3502)と、選択した画像の信号が外部メモリ22からドライバ部8を経て、伸長処理部9で伸長され、画像処理装置5aでディスプレイ部12に表示可能な信号に変換して、ディスプレイ部12に選択した画像を表示する。次にユーザがぼかし処理の実行を選択するかどうかを検出する(STEP3503)。ぼかし処理の実行を選択すると、ヘッダに書き込まれた画像の各領域の合焦距離情報がローパスフィルタ部34に読み込まれ、各領域を属する合焦距離範囲毎にグループ化する(STEP3504)。ヘッダに各領域の属する距離範囲のグループ情報が記憶されている場合はそれを読み込んでもよい。合焦距離情報や属する距離範囲のグループ情報は、外部メモリ22から直接読み込んでもよいし、圧縮符号として記憶されている場合は伸張処理部8で伸張してから与えられるものとしてもよい。これは、後述の平均輝度情報についても同様である。続いて、ローパスフィルタ部34で合焦距離情報から画像の各領域のぼかし度合いを設定し、(STEP3505)。設定したぼかし度合いでぼかし処理を施した画像の信号を保持する(STEP3506)。
次にぼかし処理のの強度を変更する補正強度値の入力待ち状態となる。ユーザが補正強度値を入力し、その値が画像処理部5aに読み込まれる(STEP3507)。図36に補正強度値を入力する表示の例を示す。表示装置のパネル上にディスプレイ部12と、上下左右及び中央の5個のボタンからなる操作部19の入力ボタン19aとが設けられており、左右の入力ボタン19aを押下することでディスプレイ部12に表示された選択した画像上のスライドバーによる補正強度値の表示を目安として補正強度値の強弱を変更することができる。
補正強度値が入力されると、ローパスフィルタ部34において、保持された通常のぼかし処理が施された画像の信号と、ぼかし処理が施されていない画像の信号とを入力された補正強度値で荷重加算し、その荷重加算された画像をディスプレイ部12に表示する。(STEP3508)。
ここで、画像を構成する各画素における荷重加算について説明する。荷重加算後の画素の輝度をY、ぼかし処理が施されていない画素の輝度をYin、通常のぼかし処理が施された画素の輝度をYconv、荷重加算係数をKとする。このとき、Yは
Y=(1−K)Yin+K・Yconv
と表すことができる。荷重加算係数と補正強度値とは図37に示すように線形の関係を有し、最も強い補正強度に対応する加重加算係数K_maxは1以下の正の数であればよい。
その後ユーザがぼかし処理の終了を指示せず(STEP3509でNo)、左右の入力ボタン15aを押下して補正強度値を変更する(STEP3507)とその補正強度値に基づいて強度を変更したぼかし処理を施し、補正した画像をディスプレイ部12に表示する。つまり、ディスプレイ部12でぼかし処理の度合いを確認しながらぼかし処理の強度を変更することができる。そして、ぼかし処理の終了を指示する(STEP3509でYes)と距離依存階調補正の選択の検出に移行する(STEP3510)。
次にユーザが距離依存階調補正の実行を選択する(STEP3510でYes)と、ヘッダに書き込まれた画像の各領域の合焦距離情報が階調補正部43に読み込まれ、各領域を属する合焦距離範囲毎にグループ化する(STEP3511)。ヘッダに各領域の属する距離範囲のグループ情報が記憶されている場合はそれを読み込んでもよい。合焦距離情報や属する距離範囲のグループ情報は、外部メモリ22から直接読み込んでもよいし、圧縮符号として記憶されている場合は伸張処理部8で伸張してから与えられるものとしてもよい。これは、後述の平均輝度情報についても同様である。
続いて、輝度情報算出部41で画像情報から画像の各領域の平均輝度を算出し、輝度情報記憶部42でそれを記憶し、階調補正部43で輝度情報記憶部42に記憶された各領域の平均輝度情報を読み取る(STEP3512)。ヘッダに各領域の平均輝度情報が書き込まれている場合は、階調補正部43で直接それを読み込んでもよい。
階調補正部43では、輝度情報記憶部42又は外部メモリ22から直接読み込んだ各領域の平均輝度に基づいて、各領域を例えば高輝度、中輝度、低輝度にグループ化する。次に、メモリ18に記憶された合焦距離のグループ及び平均輝度のグループ毎に設定された階調補正テーブルを読み込み、各領域の属する合焦距離のグループ及び平均輝度のグループに基づいて階調補正の入出力特性を割り当て(STEP3513)、各領域に割り当てられた入出力特性によって階調補正部43で階調を補正した画像の信号を保持する(STEP3514)。
次に階調補正の入出力特性の強度を変更する補正強度値の入力待ち状態となる。ユーザが補正強度値を入力ボタン19aで入力し、その値が画像処理部5aに読み込まれる(STEP3515)。
補正強度値が入力されると、階調補正部43において、保持された通常の階調補正が施された画像の信号と、階調補正が施されていない画像の信号とを入力された補正強度値で、上述したように荷重加算し、その荷重加算された画像をディスプレイ部12に表示する。(STEP3516)。
その後ユーザが階調補正の終了を指示せず(STEP3516でNo)、左右の入力ボタン15aを押下して補正強度値を変更する(STEP3515)とその補正強度値に基づいて強度を変更した入出力特性によって階調補正をし、補正した画像をディスプレイ部12に表示する。つまり、ディスプレイ部12で階調補正の度合いを確認しながら階調補正の強度を変更することができる。そして、階調補正の終了を指示し(STEP3517でYes)、ぼかし処理又は階調補正が施された画像を圧縮し、外部メモリに記録する(STEP3518)と終了する(STEP3519)。ぼかし処理又は階調補正が施された画像を記録するかどうかは選択できるようにしても構わない。
尚、本発明の表示装置において、ぼかし処理と距離依存階調補正の順序は逆であっても構わない。又、本発明の表示装置はぼかし処理機能又は距離依存階調補正機能の一方だけを有するものであっても構わない。又、撮像装置が本発明の表示装置として動作するものであっても構わない。
本発明は、オートフォーカス機能及びぼかし機能を有する撮像装置に適用することができる。
は、第1の実施形態に係る撮像装置の内部構成を示すブロック図である。 は、第1の実施形態に係る撮像装置の基本動作及びぼかし処理モードの動作を説明するためのフローチャートである。 は、撮影画像エリアを複数の領域に分割し、AF評価エリアを設定した例である。 は、撮影画像エリアのAF評価エリア及び個々の領域の高周波成分の強度と合焦距離との関係を示すグラフである。 は、第1の実施形態に係るぼかし処理部の構成を示すブロック図である。 は、距離情報検出部の構成を示すブロック図である。 は、距離情報を検出する動作を説明するためのフローチャートである。 は、距離検出用画像及び記録用画像の一例である。 は、図8の画像を9個の領域に区分した例である。 は、図9の各領域の高周波成分の強度と合焦距離との関係を示すグラフである。 は、撮像装置からの距離の異なる複数の被写体が存在している領域における高周波成分の強度と合焦距離との関係を示すグラフである。 は、第1の実施形態に係る被写体までの距離とカットオフ周波数との関係を示すグラフである。 は、画像を区分した領域のうち4個の模式図である。 は、カットオフ周波数が設定された2点間においてカットオフ周波数を線形補間したグラフである。 は、距離グループを設定した、各領域の高周波成分の強度と合焦距離との関係を示すグラフである。 は、第2の実施形態に係るぼかし処理部の構成を示すブロック図である。 は、ローパスフィルタのカットオフ周波数と出力レベルとの関係を示すグラフである。 は、第2の実施形態に係る被写体までの距離と乗算係数との関係を示すグラフである。 は、第2の実施形態に係るぼかし処理を施した画像の模式図である。 は、第3の実施形態に係るぼかし処理部の構成を示すブロック図である。 は、第3の実施形態に係る被写体までの距離と乗算係数との関係を示すグラフである。 は、顔検出装置の構成を示すブロック図である。 は、縮小画像生成手段によって得られる階層画像の一例である。 は、顔検出処理を説明するための図である。 は、変形例2に係るぼかし処理部の構成を示すブロック図である。 は、階調補正動作を説明するためのフローチャートである。 は、距離グループ及び平均輝度グループ毎に割り当てられた入出力特性の一例である。 は、異なる入出力特性の間を線形補間によりグラデーションを与えて変化させた入出力特性のグラフである。 は、2個の所定の距離に設定された入出力特性及びその間の距離に適用される入出力特性のグラフである。 は、距離グループ及び平均輝度グループ毎に割り当てられた入出力特性の別の例である。 は、遠景かつ高輝度のグループに属する領域に適用する入出力特性の別の例である。 は、遠景かつ低輝度のグループに属する領域に適用する入出力特性の別の例である。 は、本発明の表示装置の内部構成を示すブロック図である。 は、本実施形態の表示装置において画像補正を行う場合のフローチャートである。 は、補正強度値を入力する表示の例である。 は、荷重加算係数と補正強度値の関係を示すグラフである。
符号の説明
1 イメージセンサ
2 レンズ部
3 AFE
4 マイク
5 画像処理部
5a 画像処理装置
6 音声処理部
7 圧縮処理部
8 ドライバ部
9 伸長処理部
10 ビデオ出力回路部
11 ビデオ出力端子
12 ディスプレイ部
13 音声出力回路部
14 音声出力端子
15 スピーカ部
16 TG
17 CPU
17a 距離情報記憶部
18 メモリ
19 操作部
19a 入力ボタン
20 バス回線
21 バス回線
22 外部メモリ
23 距離検出部
23a 高周波成分検出部
23b 高周波成分比較部
30 ぼかし処理部
31 フレームメモリ
32 距離検出部
34 ローパスフィルタ
34a 近景用ローパスフィルタ
34b 中景用ローパスフィルタ
34c 遠景用ローパスフィルタ
35 信号処理部
36 乗算器
37 乗算係数設定部
38 加算器
39 エッジ信号生成部

Claims (11)

  1. 複数の被写体を含む撮像画像にぼかし処理を施す画像処理装置であって、
    前記撮像画像を撮像した撮像装置から前記各被写体までの距離である撮像距離に応じたぼかし度合いによって、前記撮像画像にぼかし処理を施すぼかし処理部を備えることを特徴とする画像処理装置。
  2. 前記撮像距離が長いほど、前記ぼかし度合いが高いことを特徴とする請求項1に記載の画像処理装置。
  3. 前記撮像距離が所定の距離より離れるほど、前記ぼかし度合いが高いことを特徴とする請求項1に記載の画像処理装置。
  4. 前記所定の距離が、特定部分を有する前記被写体までの距離である請求項3に記載の画像処理装置。
  5. 複数の被写体が含まれる撮像画像を取得する撮像部と、
    前記撮像部から前記各被写体までの距離である撮像距離を検出する撮像距離検出部と、
    前記各被写体の撮像距離に応じたぼかし度合いによって、前記撮像画像にぼかし処理を施すぼかし処理部と、
    を備えることを特徴とする撮像装置。
  6. 複数の被写体が含まれる撮像画像を取得する撮像部と、
    前記撮像画像を複数の分割領域に分割する領域分割部と、
    前記撮像部から前記各分割領域に含まれる被写体までの距離である撮像距離を検出する撮像距離検出部と、
    前記各撮像距離に応じたぼかし度合いによって、前記分割領域ごとにぼかし処理を施すぼかし処理部と、
    を備えることを特徴とする撮像装置。
  7. 前記撮像部で取得したままの状態の前記撮像画像の電気信号からなる本体部と、前記撮像距離検出部で検出した前記各分割領域に含まれる被写体までの距離の情報を有するヘッダ部とを備える画像ファイルを記憶する記憶部と、を備え、
    前記記憶部に記憶された前記本体部の前記撮像画像の電気信号を前記ヘッダ部に記憶された前記被写体までの距離に応じて設定したぼかし度合いを適用してぼかし処理を施す請求項6に記載の撮像装置。
  8. 前記撮像距離に基づいて、前記分割領域を複数の距離グループに区分する距離グループ生成部を備え、
    前記ぼかし処理部では、前記各距離グループに応じたぼかし度合いによって、前記分割領域に対して、属する前記各距離グループごとにぼかし処理を施すことを特徴とする請求項6又は請求項7に記載の撮像装置。
  9. 複数の被写体が含まれる撮像画像を取得する撮像部と、
    前記撮像部から前記各被写体までの距離である撮像距離を検出する撮像距離検出部と、
    前記撮像画像と前記各被写体の撮像距離に関する情報を互いに関連づけて記録する記録部と、
    を備えることを特徴とする撮像装置。
  10. 複数の被写体が含まれる撮像画像と、
    前記撮像画像を撮像した撮像装置から前記各被写体までの距離である撮像距離に関する情報とが、互いに関連づけて構成されることを特徴とする画像ファイル。
  11. 被写体までの距離である撮像距離を検出する撮像距離検出ステップと、
    複数の前記被写体が含まれる撮像画像を取得する撮像ステップと、
    前記撮像距離検出ステップで検出した前記各被写体の撮像距離に応じたぼかし度合いによって、前記撮像ステップで取得した前記撮像画像にぼかし処理を施す階調補正ステップと、
    を備えることを特徴とする画像処理方法。
JP2007138599A 2007-05-25 2007-05-25 画像処理装置、撮像装置、画像ファイル及び画像処理方法 Pending JP2008294785A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007138599A JP2008294785A (ja) 2007-05-25 2007-05-25 画像処理装置、撮像装置、画像ファイル及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007138599A JP2008294785A (ja) 2007-05-25 2007-05-25 画像処理装置、撮像装置、画像ファイル及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2008294785A true JP2008294785A (ja) 2008-12-04

Family

ID=40169057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007138599A Pending JP2008294785A (ja) 2007-05-25 2007-05-25 画像処理装置、撮像装置、画像ファイル及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2008294785A (ja)

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101753844A (zh) * 2008-12-18 2010-06-23 三洋电机株式会社 图像显示装置及摄像装置
JP2010217808A (ja) * 2009-03-19 2010-09-30 Nikon Corp 画像処理装置、画像処理方法、電子カメラおよび画像処理プログラム
KR101015935B1 (ko) 2009-10-28 2011-02-23 주식회사 넥슨 피사계 심도 및 모션 블러 처리 컴퓨터 시스템 및 그 방법
JP2011091570A (ja) * 2009-10-21 2011-05-06 Olympus Imaging Corp 撮像装置
JP2011175529A (ja) * 2010-02-25 2011-09-08 Nikon Corp 画像処理装置、撮像装置、及びプログラム
JP2011239267A (ja) * 2010-05-12 2011-11-24 Ricoh Co Ltd 撮像装置及び画像処理装置
JP2011249923A (ja) * 2010-05-24 2011-12-08 Nikon Corp 撮像装置、画像処理装置、及び画像処理プログラム
US20120007997A1 (en) * 2009-05-12 2012-01-12 Canon Kabushiki Kaisha Image pickup apparatus
KR20120014366A (ko) * 2010-08-09 2012-02-17 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2012060540A (ja) * 2010-09-10 2012-03-22 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理用プログラム
JP2012109723A (ja) * 2010-11-16 2012-06-07 Sharp Corp 画像処理装置、画像処理方法、画像処理装置の制御プログラム、および当該プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012173830A (ja) * 2011-02-18 2012-09-10 Sharp Corp 画像処理装置、画像処理方法、及びプログラム
CN102843510A (zh) * 2011-06-14 2012-12-26 宾得理光映像有限公司 成像装置和距离信息检测方法
JP2013005084A (ja) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd 画像処理装置および画像処理方法
JP2013061743A (ja) * 2011-09-12 2013-04-04 Canon Inc 画像処理装置および画像処理方法
CN103139472A (zh) * 2011-11-28 2013-06-05 三星电子株式会社 数字拍摄设备及其控制方法
EP2605101A1 (en) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method
US8532432B2 (en) 2010-01-28 2013-09-10 Pantech Co., Ltd. Mobile communication terminal having image conversion function and method
WO2013136403A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 画像処理装置、集積回路、プログラム、撮像装置、表示装置
JP2013242830A (ja) * 2012-05-23 2013-12-05 Ricoh Co Ltd 画像処理装置、画像処理プログラム、画像処理方法
CN103493484A (zh) * 2011-03-31 2014-01-01 富士胶片株式会社 成像装置和成像方法
JP2014007611A (ja) * 2012-06-25 2014-01-16 Canon Inc 画像処理装置及びその制御方法
CN103905725A (zh) * 2012-12-27 2014-07-02 佳能株式会社 图像处理设备和图像处理方法
JP2014127963A (ja) * 2012-12-27 2014-07-07 Canon Inc 画像処理装置及び画像処理方法
JP2014131320A (ja) * 2014-02-13 2014-07-10 Canon Inc 撮像装置
JP2015037215A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2015040941A (ja) * 2013-08-21 2015-03-02 キヤノン株式会社 撮像装置、その制御方法およびプログラム
JP2015043495A (ja) * 2013-08-26 2015-03-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
KR101525626B1 (ko) * 2009-01-05 2015-06-04 삼성전자주식회사 아웃 포커싱 장치 및 방법
JP2015109681A (ja) * 2015-01-09 2015-06-11 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
JP2015135623A (ja) * 2014-01-17 2015-07-27 オリンパス株式会社 表示機器、表示方法およびプログラム
US9113075B2 (en) 2009-02-27 2015-08-18 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
JP2015159391A (ja) * 2014-02-24 2015-09-03 株式会社リコー 伝送端末、伝送システム、及びプログラム
EP2693755A3 (en) * 2012-07-31 2015-09-09 Sony Mobile Communications AB New gamut control method for improving image performance of parallax barrier S3D display
JP2016146601A (ja) * 2015-02-09 2016-08-12 キヤノン株式会社 画像処理装置およびその制御方法
US9460336B2 (en) 2011-01-13 2016-10-04 Samsung Electronics Co., Ltd. Apparatus and method for extracting feature of depth image
JP2016213574A (ja) * 2015-04-30 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP2017038139A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
CN106576140A (zh) * 2014-10-28 2017-04-19 夏普株式会社 图像处理装置以及程序
WO2019105298A1 (zh) * 2017-11-30 2019-06-06 Oppo广东移动通信有限公司 图像虚化处理方法、装置、移动设备及存储介质
JP2019153951A (ja) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド 撮像装置、撮像方法、及びプログラム
JP2019153950A (ja) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド 撮像装置、撮像方法、及びプログラム
US10554890B1 (en) 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
JP2020046475A (ja) * 2018-09-14 2020-03-26 キヤノン株式会社 画像処理装置およびその制御方法
JP2020136928A (ja) * 2019-02-20 2020-08-31 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN111866378A (zh) * 2020-06-30 2020-10-30 维沃移动通信有限公司 图像处理方法、装置、设备及介质
JP2020536457A (ja) * 2017-10-31 2020-12-10 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366963A (ja) * 2001-06-12 2002-12-20 Ricoh Co Ltd 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2005012307A (ja) * 2003-06-17 2005-01-13 Minolta Co Ltd 撮像装置
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2006157817A (ja) * 2004-12-01 2006-06-15 Nikon Corp デジタルカメラ、画像処理システム及び画像処理プログラム
JP2007129310A (ja) * 2005-11-01 2007-05-24 Nikon Corp 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366963A (ja) * 2001-06-12 2002-12-20 Ricoh Co Ltd 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2005012307A (ja) * 2003-06-17 2005-01-13 Minolta Co Ltd 撮像装置
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2006157817A (ja) * 2004-12-01 2006-06-15 Nikon Corp デジタルカメラ、画像処理システム及び画像処理プログラム
JP2007129310A (ja) * 2005-11-01 2007-05-24 Nikon Corp 撮像装置

Cited By (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145693A (ja) * 2008-12-18 2010-07-01 Sanyo Electric Co Ltd 画像表示装置及び撮像装置
CN101753844A (zh) * 2008-12-18 2010-06-23 三洋电机株式会社 图像显示装置及摄像装置
KR101525626B1 (ko) * 2009-01-05 2015-06-04 삼성전자주식회사 아웃 포커싱 장치 및 방법
US9113075B2 (en) 2009-02-27 2015-08-18 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
JP2010217808A (ja) * 2009-03-19 2010-09-30 Nikon Corp 画像処理装置、画像処理方法、電子カメラおよび画像処理プログラム
US9201288B2 (en) * 2009-05-12 2015-12-01 Canon Kabushiki Kaisha Image processing apparatus with blur correcting function
US9591246B2 (en) 2009-05-12 2017-03-07 Canon Kabushiki Kaisha Image pickup apparatus with blur correcting function
US20120007997A1 (en) * 2009-05-12 2012-01-12 Canon Kabushiki Kaisha Image pickup apparatus
JP2011091570A (ja) * 2009-10-21 2011-05-06 Olympus Imaging Corp 撮像装置
KR101015935B1 (ko) 2009-10-28 2011-02-23 주식회사 넥슨 피사계 심도 및 모션 블러 처리 컴퓨터 시스템 및 그 방법
US8532432B2 (en) 2010-01-28 2013-09-10 Pantech Co., Ltd. Mobile communication terminal having image conversion function and method
US9197882B2 (en) 2010-01-28 2015-11-24 Pantech Co., Ltd. Mobile communication terminal having image conversion function and method
JP2011175529A (ja) * 2010-02-25 2011-09-08 Nikon Corp 画像処理装置、撮像装置、及びプログラム
JP2011239267A (ja) * 2010-05-12 2011-11-24 Ricoh Co Ltd 撮像装置及び画像処理装置
JP2011249923A (ja) * 2010-05-24 2011-12-08 Nikon Corp 撮像装置、画像処理装置、及び画像処理プログラム
KR101700195B1 (ko) * 2010-08-09 2017-01-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20120014366A (ko) * 2010-08-09 2012-02-17 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2012060540A (ja) * 2010-09-10 2012-03-22 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理用プログラム
JP2012109723A (ja) * 2010-11-16 2012-06-07 Sharp Corp 画像処理装置、画像処理方法、画像処理装置の制御プログラム、および当該プログラムを記録したコンピュータ読み取り可能な記録媒体
US9460336B2 (en) 2011-01-13 2016-10-04 Samsung Electronics Co., Ltd. Apparatus and method for extracting feature of depth image
JP2012173830A (ja) * 2011-02-18 2012-09-10 Sharp Corp 画像処理装置、画像処理方法、及びプログラム
CN103493484A (zh) * 2011-03-31 2014-01-01 富士胶片株式会社 成像装置和成像方法
JPWO2012132797A1 (ja) * 2011-03-31 2014-07-28 富士フイルム株式会社 撮像装置及び撮像方法
JP5640143B2 (ja) * 2011-03-31 2014-12-10 富士フイルム株式会社 撮像装置及び撮像方法
US8885026B2 (en) 2011-03-31 2014-11-11 Fujifilm Corporation Imaging device and imaging method
JP2013005091A (ja) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd 撮像装置および距離情報取得方法
JP2013005084A (ja) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd 画像処理装置および画像処理方法
CN102843510A (zh) * 2011-06-14 2012-12-26 宾得理光映像有限公司 成像装置和距离信息检测方法
US9412151B2 (en) 2011-09-12 2016-08-09 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013061743A (ja) * 2011-09-12 2013-04-04 Canon Inc 画像処理装置および画像処理方法
EP2597863A3 (en) * 2011-11-28 2015-09-30 Samsung Electronics Co., Ltd. Digital Photographing Apparatus and Control Method Thereof
US9325895B2 (en) 2011-11-28 2016-04-26 Samsung Electronics Co., Ltd. Digital photographing apparatus and control method thereof
CN103139472A (zh) * 2011-11-28 2013-06-05 三星电子株式会社 数字拍摄设备及其控制方法
EP2605101A1 (en) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Method for displaying images on a display device of a driver assistance device of a motor vehicle, computer program and driver assistance device carrying out the method
US9002128B2 (en) 2012-03-15 2015-04-07 Panasonic Intellectual Property Corporation Of America Image processing apparatus, integrated circuit, program, imaging apparatus, and display apparatus
WO2013136403A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 画像処理装置、集積回路、プログラム、撮像装置、表示装置
JPWO2013136403A1 (ja) * 2012-03-15 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像処理装置、集積回路、プログラム、撮像装置、表示装置
JP2013242830A (ja) * 2012-05-23 2013-12-05 Ricoh Co Ltd 画像処理装置、画像処理プログラム、画像処理方法
JP2014007611A (ja) * 2012-06-25 2014-01-16 Canon Inc 画像処理装置及びその制御方法
EP2693755A3 (en) * 2012-07-31 2015-09-09 Sony Mobile Communications AB New gamut control method for improving image performance of parallax barrier S3D display
JP2014127963A (ja) * 2012-12-27 2014-07-07 Canon Inc 画像処理装置及び画像処理方法
CN103905725A (zh) * 2012-12-27 2014-07-02 佳能株式会社 图像处理设备和图像处理方法
JP2014127965A (ja) * 2012-12-27 2014-07-07 Canon Inc 画像処理装置及び画像処理方法
CN103905725B (zh) * 2012-12-27 2018-04-03 佳能株式会社 图像处理设备和图像处理方法
JP2015037215A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2015040941A (ja) * 2013-08-21 2015-03-02 キヤノン株式会社 撮像装置、その制御方法およびプログラム
JP2015043495A (ja) * 2013-08-26 2015-03-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2015135623A (ja) * 2014-01-17 2015-07-27 オリンパス株式会社 表示機器、表示方法およびプログラム
JP2014131320A (ja) * 2014-02-13 2014-07-10 Canon Inc 撮像装置
JP2015159391A (ja) * 2014-02-24 2015-09-03 株式会社リコー 伝送端末、伝送システム、及びプログラム
CN106576140B (zh) * 2014-10-28 2019-10-18 夏普株式会社 图像处理装置以及摄像装置
US10147169B2 (en) 2014-10-28 2018-12-04 Sharp Kabushiki Kaisha Image processing device and program
CN106576140A (zh) * 2014-10-28 2017-04-19 夏普株式会社 图像处理装置以及程序
JP2015109681A (ja) * 2015-01-09 2015-06-11 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置
JP2016146601A (ja) * 2015-02-09 2016-08-12 キヤノン株式会社 画像処理装置およびその制御方法
JP2016213574A (ja) * 2015-04-30 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP2017038139A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
JP7027537B2 (ja) 2017-10-31 2022-03-01 オッポ広東移動通信有限公司 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体
JP2020536457A (ja) * 2017-10-31 2020-12-10 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体
WO2019105298A1 (zh) * 2017-11-30 2019-06-06 Oppo广东移动通信有限公司 图像虚化处理方法、装置、移动设备及存储介质
JP2019153951A (ja) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド 撮像装置、撮像方法、及びプログラム
JP2019153950A (ja) * 2018-03-05 2019-09-12 株式会社Jvcケンウッド 撮像装置、撮像方法、及びプログラム
JP6996347B2 (ja) 2018-03-05 2022-01-17 株式会社Jvcケンウッド 撮像装置、撮像方法、及びプログラム
JP7000921B2 (ja) 2018-03-05 2022-01-19 株式会社Jvcケンウッド 撮像装置、撮像方法、及びプログラム
JP2020046475A (ja) * 2018-09-14 2020-03-26 キヤノン株式会社 画像処理装置およびその制御方法
JP7204387B2 (ja) 2018-09-14 2023-01-16 キヤノン株式会社 画像処理装置およびその制御方法
US10554890B1 (en) 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
JP2020136928A (ja) * 2019-02-20 2020-08-31 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7278096B2 (ja) 2019-02-20 2023-05-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
WO2022001648A1 (zh) * 2020-06-30 2022-01-06 维沃移动通信有限公司 图像处理方法、装置、设备及介质
CN111866378A (zh) * 2020-06-30 2020-10-30 维沃移动通信有限公司 图像处理方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
JP2008294785A (ja) 画像処理装置、撮像装置、画像ファイル及び画像処理方法
KR101692401B1 (ko) 영상 처리 방법 및 장치
JP4524717B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5321163B2 (ja) 撮像装置及び撮像方法
JP3530907B2 (ja) デジタルカメラ
KR101643613B1 (ko) 디지털 영상 처리 장치, 영상 처리 방법 및 이를 기록한 기록 매체
JP4916378B2 (ja) 撮像装置、画像処理装置、画像ファイル及び階調補正方法
JP4891647B2 (ja) カメラ
JP2010213232A (ja) 撮像装置及び撮像方法
CN106941587B (zh) 视频处理设备和视频处理方法
JP2010074813A (ja) 撮像装置および撮像方法
WO2014146605A1 (en) Video frame processing method
JP2011114823A (ja) 画像処理装置及び撮像装置
JP4606486B2 (ja) 画像処理装置および撮影装置
JP2005055746A (ja) 撮像装置、合焦制御方法、およびプログラム
KR20160137289A (ko) 촬영 장치 및 촬영 장치의 동작방법
JP7246894B2 (ja) 撮像装置およびその制御方法
JP4934617B2 (ja) 撮像装置及び撮像方法
JP2008136113A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2006253970A (ja) 撮像装置、シェーディング補正データ作成方法およびプログラム
JP2018142983A (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
JP2009033289A (ja) 撮像装置及び撮像方法
JP2023090492A (ja) 画像処理装置および画像処理方法、撮像装置
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP4633525B2 (ja) 焦点検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110