JP4655238B2 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4655238B2
JP4655238B2 JP2008240334A JP2008240334A JP4655238B2 JP 4655238 B2 JP4655238 B2 JP 4655238B2 JP 2008240334 A JP2008240334 A JP 2008240334A JP 2008240334 A JP2008240334 A JP 2008240334A JP 4655238 B2 JP4655238 B2 JP 4655238B2
Authority
JP
Japan
Prior art keywords
focus information
pixel
input image
processing
depth value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008240334A
Other languages
English (en)
Other versions
JP2010072982A (ja
Inventor
信一郎 五味
昌美 緒形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008240334A priority Critical patent/JP4655238B2/ja
Priority to US12/560,827 priority patent/US8520134B2/en
Priority to CN2009101690910A priority patent/CN101676951B/zh
Publication of JP2010072982A publication Critical patent/JP2010072982A/ja
Application granted granted Critical
Publication of JP4655238B2 publication Critical patent/JP4655238B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、画像における被写体の奥行値を正確に求め、求められた奥行値に基づいて画像を処理できるようにした画像処理装置および方法、並びにプログラムに関する。
画像の中で、被写体毎に奥行値を設定し、奥行値に応じて画像を処理する技術が提案されている(特許文献1)。また、画像より被写体の奥行値を抽出して、抽出された奥行値に対応して、上述した画像処理を施す処理が提案されている。
特開2002−197486号公報
しかしながら、画像の輪郭成分、または高周波成分から奥行値を検出する場合、輝度の情報のみに基づいたものであることが多いため、平坦部分では輪郭、および高周波成分が微小であることから、奥行値が正確に得られないことがあり、画像処理を適正に行うことができない恐れがあった。また、暗い領域においても、輪郭、および高周波成分が小さくなることから、正確な奥行値を求めることができないことがあり、やはり画像処理を適正に行うことができない恐れがあった。
本発明はこのような状況に鑑みてなされたものであり、特に、画像における暗い部分などの平坦部分においても正確に奥行値を設定することができるようにし、奥行値に対応して画像を適切に処理できるようにするものである。
本発明の一側面の画像処理装置は、入力画像の画素毎に、奥行値を検出する奥行値検出手段と、前記奥行値を前記入力画像の所定の領域毎に分布する重みを用いて積算し、所定の領域毎の重み付け平均値を算出する算出手段と、前記入力画像の前記領域毎の重み付け平均値に基づいて、構図を解析する解析手段と、前記解析手段の解析結果に基づいて、前記入力画像を処理する処理手段とを含み、前記奥行検出手段は、入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出手段と、前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合手段と、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理手段と、前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出手段と、前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合手段と、前記画素毎の奥行値を正規化する正規化手段と、前記正規化手段により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御手段と、前記画素毎に彩度を検出する彩度検出手段と、前記トーンカーブ制御手段により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御手段とを含む。
前記処理手段には、前記解析結果に基づいて、前記入力画像を高画質化処理させるようにすることができる。
前記処理手段には、前記解析結果に基づいて、前記入力画像を圧縮処理させるようにすることができる。
本発明の一側面の画像処理方法は、入力画像の画素毎に、奥行値を検出する奥行値検出ステップと、前記奥行値を前記入力画像の所定の領域毎に分布する重みを用いて積算し、所定の領域毎の重み付け平均値を算出する算出ステップと、前記入力画像の前記領域毎の重み付け平均値に基づいて、構図を解析する解析ステップと、前記解析ステップの処理での解析結果に基づいて、前記入力画像を処理する処理ステップとを含み、前記奥行検出ステップの処理は、入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、前記画素毎の奥行値を正規化する正規化ステップと、前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、前記画素毎に彩度を検出する彩度検出ステップと、前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップとを含む。
本発明の一側面のプログラムは、入力画像の画素毎に、奥行値を検出する奥行値検出ステップと、前記奥行値を前記入力画像の所定の領域毎に分布する重みを用いて積算し、所定の領域毎の重み付け平均値を算出する算出ステップと、前記入力画像の前記領域毎の重み付け平均値に基づいて、構図を解析する解析ステップと、前記解析ステップの処理での解析結果に基づいて、前記入力画像を処理する処理ステップとを含む処理をコンピュータに実行させ、前記奥行検出ステップの処理は、入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、前記画素毎の奥行値を正規化する正規化ステップと、前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、前記画素毎に彩度を検出する彩度検出ステップと、前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップとを含む
本発明の一側面においては、入力画像の画素毎に、奥行値が検出され、前記奥行値が前記入力画像の所定の領域毎に分布する重みを用いて積算されて、所定の領域毎の重み付け平均値が算出され、前記入力画像の前記領域毎の重み付け平均値に基づいて、構図が解析され、解析結果に基づいて、前記入力画像が処理され、入力画像の画素毎に、周辺画素の輝度信号より高周波成分が焦点情報として抽出され前記画素毎に、周辺画素の焦点情報が統合されることで前記統合焦点情報が生成され、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えられ、前記入力画像の暗部焦点情報が生成され、前記画素毎の輝度信号が、周辺画素の輝度信号に統合されることで照明成分が抽出され、前記統合焦点情報と前記暗部焦点情報との、前記照明成分が用いられた係数による積和演算により画素毎の奥行値が計算され、前記画素毎の奥行値が正規化され、正規化された奥行値がトーンカーブにより制御され、前記画素毎に彩度が検出され、前記トーンカーブにより制御された前記奥行値が前記彩度により制御される。
本発明の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本発明の一側面によれば、画像における被写体の奥行値を正確に求め、奥行値に対して適切に画像を処理することが可能となる。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は、以下の順序で行う。
1.第1の実施の形態(高画質化処理)
2.第2の実施の形態(圧縮処理)
<1.第1の実施の形態>
[画像処理装置の構成例]
図1は、本発明を適用した一実施の形態の構成例を示す画像処理装置である。
図1の画像処理装置1は、画像解析部2、および高画質化処理部3より構成されており、入力された画像の構図を解析し、解析された構図に応じて、高画質化処理を実行する。
画像解析部2は、YUV分離部11、奥行検出部12、ブロック積算部13、および積算値解析部14より構成される。画像解析部2は、入力画像より画像内における広がり、すなわち、画素単位での奥行値を求めて、求められた奥行値に応じて、入力画像の構図を解析し、解析結果を高画質化処理部3に供給する。
YUV分離部11は、例えば、RGB信号などから構成される入力画像をYUV(輝度信号Y、および色差信号U,V)に画素単位で変換して分離し、奥行検出部12に供給する。奥行検出部12は、輝度信号Yおよび色差信号U,Vより画素単位で奥行値dを求めてブロック積算部13に供給する。尚、奥行検出部12については、図2を参照して、詳細な構成例について後述する。
ブロック積算部13は、画素単位の奥行値dに基づいて、入力画像内の領域毎に奥行値dを積算して、領域毎の積算結果を積算値解析部14に供給する。より詳細には、ブロック積算部13は、オープンスカイ領域積算部13a、およびポートレート領域積算部13bを備えている。このうち、オープンスカイ領域積算部13aは、入力画像における上部領域からなるオープンスカイ領域における奥行値dを積算し、オープンスカイ領域重み付け平均値sdoを求める。また、ポートレート領域積算部13bは、入力画像における左右の側面領域からなるポートレート領域における奥行値dを積算し、ポートレート領域重み付き平均値sdpを求める。そして、ブロック積算部13は、オープンスカイ領域重み付け平均値sdoおよびポートレート領域重み付け平均値sdpを積算値解析部14に供給する。
積算値解析部14は、オープンスカイ領域重み付け平均値sdoおよびポートレート領域重み付け平均値sdpに基づいて、オープンスカイ度、およびポートレート度を解析し、解析結果であるオープンスカイ度、およびポートレート度で構図を特定し、特定した構図の情報を高画質化処理部3に供給する。尚、オープンスカイ度、およびポートレート度と、構図との対応については、詳細を後述する。
高画質化処理部3は、オープンスカイ度、およびポートレート度に基づいて特定される入力画像の構図に基づいて、入力画像を高画質化して出力する。
[奥行検出部の構成例]
次に、図2を参照して、奥行検出部12の詳細な構成例について説明する。
奥行検出部12は、焦点情報抽出部31、領域統合部32、暗部処理部33、奥行生成部34、照明成分抽出部35、および彩度検出部36より構成されており、輝度信号Yおよび色差信号U,Vより画素単位で奥行値dを求め、ブロック積算部13に供給する。
焦点情報抽出部31は、輝度信号Yに水平HPF(High Pass Filter)および垂直HPFを掛けることにより高周波成分を抽出して焦点情報Fとして領域統合部32、および暗部処理部33に供給する。尚、焦点情報抽出部31の構成例については、図3を参照して詳細を後述する。
領域統合部32は、LPF(Low Pass Filter)より構成されており、焦点情報Fを平滑化することにより、画素毎に周辺画素の焦点情報Fの値に近付けるように統合することで、焦点情報FLを生成し、奥行生成部34に供給する。尚、領域統合部32は、焦点情報Fを周辺の焦点情報Fの値に近付けられように統合処理ができるものであればよいので、LPFなどの他、FIR(Finite Impulse Response Filter)、IIR(Infinite Impulse Response Filter)、εフィルタ、またはメディアンフィルタなどでもよいものである。
暗部処理部33は、画素毎に周辺画素の焦点情報Fとの比較により、注目画素の焦点情報Fよりも大きな値の平均値を求める。そして、暗部処理部33は、求められた平均値で注目画素の焦点情報Fを置き換えることにより、暗部を明るするように処理することで焦点情報FDを生成し、奥行生成部34に供給する。
照明成分抽出部35は、LPFより構成されており、輝度信号Yを平滑化することで、周辺の画素の輝度信号Yに近付けるように処理して、照明成分LFを抽出して奥行生成部34に供給する。
彩度検出部36は、色差信号U,Vより彩度Sを検出し、検出した彩度Sを奥行生成部34に供給する。
奥行生成部34は、焦点情報FL,FD、照明成分LF、および彩度Sに基づいて、奥行値dを生成して出力する。尚、奥行生成部34については、図5を参照して詳細を後述する。
[焦点情報抽出部の構成例]
次に、図3を参照して、焦点情報抽出部31の詳細な構成例について説明する。
焦点情報抽出部31は、水平方向HPF51、絶対値処理部52、最大値抽出部53、垂直方向HPF54、および絶対値処理部55から構成されており、輝度信号Yの高周波成分を抽出し、焦点情報Fとして出力する。
水平方向HPF51は、例えば、図4の左部で示されるような、水平方向の高周波成分を抽出するHPFであり、入力される輝度信号Yの水平方向の高周波成分YHを抽出して絶対値処理部52に供給する。
絶対値処理部52は、水平方向の高周波成分として抽出された高周波成分YHの絶対値を求めて最大値抽出部53に供給する。
垂直方向HPF54は、例えば、図4の右部で示されるような、垂直方向の高周波成分を抽出するHPFであり、入力される輝度信号Yの垂直方向の高周波成分YVを抽出して絶対値処理部52に供給する。
絶対値処理部55は、垂直方向の高周波成分として抽出された高周波成分YVの絶対値を求めて最大値抽出部53に供給する。
最大値抽出部53は、高周波成分YH,YVの最大値を抽出し、焦点情報Fとして出力する。
[奥行生成部の構成例]
次に、図5を参照して、奥行生成部34の詳細な構成例について説明する。
奥行生成部34は、明暗統合部71、正規化部72、トーンカーブ制御部73、および彩度制御部74より構成されており、焦点情報FL,FD、照明成分LF、および彩度Sに基づいて、奥行値dを生成して出力する。
明暗統合部71は、領域統合部32からの輝度信号YLと、暗部処理部33からの輝度信号YDとを、照明成分抽出部35より供給されてくる照明成分LFに基づいた比率で合成することで、輝度信号の明部と暗部とを統合し、合成信号gを正規化部72に供給する。
正規化部72は、明暗統合部71より供給されてくる合成信号gを正規化し、正規化された合成信号g’としてトーンカーブ制御部73に供給する。
トーンカーブ制御部73は、予め設定されているトーンカーブにしたがって、合成信号g’を制御して奥行値dgを生成し、彩度制御部74に供給する。
彩度制御部74は、トーンカーブ制御部73より供給されてくる奥行値dgに、彩度検出部36より供給されてくる彩度Sに基づいて設定される係数を乗じることにより奥行値dを生成し、ブロック積算部13に供給する。
[図1の画像処理装置による画像処理]
次に、図6のフローチャートを参照して、図1の画像処理装置1による画像処理について説明する。
ステップS11において、YUV分離部11は、新たな画像が供給されてきたか否かを判定し、新たな画像が供給されてくるまで、同様の処理を繰り返す。ステップS1において、例えば、新たな画像が入力されてきた場合、処理は、ステップS12に進む。
ステップS12において、YUV分離部11は、画素単位でYUV信号に変換して分離し、輝度信号Yおよび、色差信号U,Vを奥行検出部12に供給する。
ステップS13において、奥行検出部12は、輝度信号Yおよび色差信号U,Vに基づいて、奥行検出処理を実行し、奥行値dを画素単位で求め、ブロック積算部13に供給する。
[奥行検出処理]
ここで、図7のフローチャートを参照して奥行検出処理について説明する。
ステップS31において、彩度検出部36は、供給されてきた色差信号U,Vより彩度Sを以下の式(1)を演算することにより求め、奥行生成部34に供給する。
S=√(U2+V2
・・・(1)
ここで、U,Vは、色差信号である。すなわち、彩度Sは、色差信号U,Vの二乗和の平方根として求められる。
ステップS32において、照明成分抽出部35は、各画素の周辺の輝度信号Yにより平滑化することにより、周辺の画素の輝度信号Yに近付けるように処理し、照明成分LFを抽出して奥行生成部34に供給する。すなわち、明るい領域は、焦点が合っている状態でも高周波成分が小さくなるため、周辺の画素の輝度信号Yに近い値が照明成分LFとして抽出される。
ステップS33において、焦点情報抽出部31は、各画素について焦点情報抽出処理を実行し、輝度信号Yより焦点情報Fを求めて領域統合部32、および暗部処理部33に供給する。
[焦点情報抽出処理]
ここで、図8のフローチャートを参照して、焦点情報抽出処理について説明する。
ステップS51において、水平方向HPF51は、入力される輝度信号Yに、例えば、図4の左部で示されるような水平方向のフィルタ処理を施し、高周波成分YHを抽出して絶対値処理部52に供給する。
ステップS52において、絶対値処理部52は、水平方向の高周波成分として抽出された高周波成分YHの絶対値を求めて最大値抽出部53に供給する。
ステップS53において、垂直方向HPF54は、入力される輝度信号Yに、例えば、図4の右部で示されるような垂直方向のフィルタ処理を施し、高周波成分YVを抽出して絶対値処理部54に供給する。
ステップS54において、絶対値処理部55は、垂直方向の高周波成分として抽出された高周波成分YVの絶対値を求めて最大値抽出部53に供給する。
ステップS55において、最大値抽出部53は、高周波成分YH,YVの最大値、すなわち、いずれか大きな値を抽出し、焦点情報Fとして領域統合部32、および暗部処理部33に出力する。
以上の処理により、入力画像Pの各画素について輝度信号Yの水平方向、または、垂直方向の高周波成分のうち、いずれか大きな値が焦点情報Fとして出力される。
ここで、図7のフローチャートの説明に戻る。
ステップS34において、領域統合部32は、焦点情報Fを平滑化することにより、周辺の画素の焦点情報Fの値に近づけて焦点情報FLを生成し、奥行生成部34に供給する。すなわち、この処理により、領域統合部32は、焦点情報Fを、全体が高周波成分の画像であるものとして、平滑化して処理し、焦点情報FLを生成して奥行生成部34に供給する。
ステップS35において、暗部処理部33は、画素毎に画素周辺の焦点情報Fとの比較により、処理対照となる画素の焦点情報Fよりも大きな周辺画素の焦点情報Fの平均値を求める。すなわち、暗部処理部33は、例えば、図9で示されるように、図中の黒丸で示される処理対象の画素を中心とした垂直方向、または、水平方向などの1次元の範囲Wにおける焦点情報Fのうち、太線で示される注目画素の焦点情報Fよりも大きな値の平均値FA(図9の白丸)を求める。そして、暗部処理部33は、処理対象となる画素の焦点情報Fを、求めた平均値FAで置き換えることにより焦点情報FDを生成する。この処理により、画素毎に、周辺画素の焦点情報Fのうち、自らよりも明るいものの平均値FAに置換されて、焦点情報FDが生成されることになるので、明るくなるように処理される。すなわち、例えば、画像内で暗い範囲に存在するような画素については、明るく処理されることになる。尚、暗部処理部33の処理については、処理対象の画素の近傍の所定範囲の平均値を用いるようにすればよく、例えば、処理対象の画素を中心とした2次元の範囲における焦点情報Fよりも大きな値の平均値で、焦点情報Fを置き換えるようにしてもよい。
ステップS36において、奥行生成部34は、奥行生成処理を実行し、焦点情報FL,FD、照明成分LF、および彩度Sに基づいて、奥行値dを生成してブロック積算部13に出力する。
[奥行生成処理]
ここで、図10のフローチャートを参照して、奥行生成処理について説明する。
ステップS71において、明暗統合部71は、輝度信号YLと輝度信号YDとを用いて、以下の式(2)を演算することにより、照明成分LFに基づいた比率で合成し、合成信号gを生成し、合成信号gを正規化部72に供給する。
g=A×FD+(1−A)×FL
・・・(2)
ここで、gは合成信号を示し、FDは暗部の輝度信号を示し、YLは明部の輝度信号を示し、Aは、図11で示されるように、照明成分LFに基づいて決定される係数である。すなわち、係数Aは、0乃至1.0の値であり、照明成分LFが0近傍であるとき1.0を取り、照明成分LFが所定の値までは1.0であるが、所定の値より大きくなると、照明成分LFが大きくなるに従って線形的に小さくなり、所定の値を超えると0となる。
従って、明暗統合部71は、明部の輝度信号YLと暗部の輝度信号YDとを、照明成分LFが大きく、全体として明るい画像に対しては、明部の輝度信号YLの割合を高めるように合成する。逆に、明暗統合部71は、明部の輝度信号YLと暗部の輝度信号YDとを、照明成分LFが小さく、全体として暗い画像に対しては、暗部の輝度信号YDの割合を高めるように合成する。
結果として、焦点情報Fは、入力画像Pが全体として明るい場合、高周波成分の高い輝度信号YLに追従して調整され、逆に、全体として暗い場合、暗部処理された輝度信号YDに追従して調整される。
ステップS72において、正規化部72は、合成信号gを、例えば、以下の式(3)で示されるような演算を実行することにより、正規化し、正規化した合成信号g’をトーンカーブ制御部73に供給する。
g’=(g−gmin)/(gmax−gmin)
・・・(3)
ここで、g’は正規化された合成信号を、gは正規化される前の合成信号を、gmaxは、入力画像における各画素の合成信号gのうち最大値を、gminは、入力画像における各画素の合成信号gのうち最小値を、それぞれ表している。
ステップS73において、トーンカーブ制御部73は、例えば、図12で示されるようなトーンカーブにしたがって、合成信号g’を制御して奥行値dgを生成し、彩度制御部74に供給する。すなわち、図12で示されるように、予め設定されたトーンカーブにおいては、合成信号g’が0近傍、または1近傍の値においては、奥行値dgが緩やかに増加し、合成信号g’が0.4近傍においては、奥行値dgが急峻に増加する。このため、合成信号g’が大きい場合、奥行値dgが小さく設定され、合成信号g’が小さい場合は、奥行値dgが大きく設定される。また、合成信号g’の大きさにより奥行値dgは、0または1.0のいずれかの値に近い値となり、奥行について、手前に位置するものであるのか、または、奥に位置するものであるのかが、比較的鮮明に分けられ易く制御される。
ステップS74において、彩度制御部74は、トーンカーブ制御部73より供給されてくる奥行値dgに、彩度検出部36より供給されてくる図13で示される彩度Sにより設定される係数Bを乗じることで、彩度Sにより制御された奥行値dを生成する。より具体的には、彩度制御部74は、以下の式(4)で示される演算を実行することにより、奥行値dを計算し、計算した奥行値dをブロック積算部13に供給する。
d=B×dg
・・・(4)
ここで、dは彩度Sにより制御された奥行値を、Bは図13で示されるように彩度Sにより設定される係数を、dgは彩度Sにより制御される前の奥行値をそれぞれ表している。
図13で示されるように、係数Bは、予め設定される係数Bの最小値Bmin乃至最大値Bmaxの範囲における値をとり、入力画像における彩度Sの最小値Sminと最大値Smaxとの間で線形変換される値である。すなわち、奥行値dは、彩度Sが大きいほど、制御される前の奥行値dgが大きな値となるように制御され、逆に、彩度Sが小さいほど、制御される前の奥行値dgが小さな値となるように制御される。このため、彩度Sが大きいほど奥行値dが大きくなり、より奥行をはっきりと識別できる値に設定することが可能なり、彩度Sが小さいほど、奥行値dが小さくなり、より奥行を識別し難い値に設定することが可能となる。
以上の処理により、入力画像における画素単位での明暗に応じて設定される合成係数g、照明成分LF、および彩度Sに基づいて、奥行値dが設定されるので、適切に奥行値dを計算することが可能となる。
ここで、図6のフローチャートの説明に戻る。
すなわち、図7のフローチャートにおけるステップS36の奥行生成処理が終了すると、図6のフローチャートにおけるステップS13の奥行検出処理が終了し、処理は、ステップS14に進む。
ステップS14において、ブロック積算部13は、オープンスカイ領域積算部13aを制御し、入力画像における上部領域からなるオープンスカイ領域における奥行値dを積算し、オープンスカイ領域重み付け平均値sdoを求めさせる。すなわち、オープンスカイ領域とは、例えば、図14の左部で示される入力画像Pにおける斜線部で示される領域Z1である。オープンスカイ領域積算部13aは、この領域Z1で示されるオープンスカイ領域に属する画素の奥行値dを、例えば、図14の左部左上の曲線で示されているような垂直方向中央で最大値μyを取るように垂直方向に分布する重みw(x,y)を用いて、オープンスカイ領域重み付け平均値sdoを求める。
ステップS15において、ブロック積算部13は、ポートレート領域積算部13bを制御し、入力画像における左右側面領域からなるポートレート領域における奥行値dを積算し、ポートレート領域重み付け平均値sdpを求めさせる。すなわち、ポートレート領域とは、例えば、図14の右部で示される入力画像Pにおける斜線部で示される領域Z2である。ポートレート領域積算部13bは、この領域Z2で示されるオープンスカイ領域に属する画素の奥行値dを、例えば、図14の右部左右下の曲線で示されているような水平方向中央で最大値μxを取るように水平方向に分布する重みw(x,y)を用いて、ポートレート領域重み付け平均値sdpを求める。
ステップS16において、ブロック積算部13は、オープンスカイ領域重み付け平均値sdおよびポートレート領域重み付け平均値sdpを積算値解析部14に供給する。そして、積算値解析部14は、オープンスカイ領域重み付け平均値sdoおよびポートレート領域重み付け平均値sdpより、図15で示されるような関係を用いて、それぞれオープンスカイ度、およびポートレート度を求める。さらに、積算値解析部14は、このオープンスカイ度、およびポートレート度を解析して入力画像の構図の情報を高画質化処理部3に供給する。尚、図15においては、横軸がオープンスカイ領域重み付け平均値sdoまたはポートレート領域重み付け平均値sdpを示す平均値d_aveを示しており、縦軸がオープンスカイ度、およびポートレート度を示している。すなわち、平均値d_aveが、所定の値までは、オープンスカイ度、およびポートレート度は、いずれも最大値を取り、所定の値以降は、平均値d_aveが大きくなるにつれて小さくなり、所定の値以上になると0となる。
ここで、オープンスカイ度は、図14の左部で示されるように、画像上の領域Z1における奥行値dの重み付け平均である、オープンスカイ領域重み付け平均値sdoが小さくなるほど、大きくなるものである。従って、オープンスカイ度が大きくなる場合、画像は、上方に奥行のある構図となる。このような構図は、例えば、画像の上方に空などの奥行きのある画像が撮像されているような構図である可能性が高いと言える。
また、ポートレート度は、図14の右部で示されるように、画像上の領域Z2における奥行値dの重み付け平均である、ポートレート領域重み付け平均値sdpが大きくなるほど小さくなるものである。従って、ポートレート度が大きくなる場合、画像の左右側面に奥行が存在する構図となる。このような構図は、例えば、画像の左右に壁や空などの奥行きのある画像が撮像されているような構図である可能性が高いと言える。
そこで、積算値解析部14は、オープンスカイ度、およびポートレート度に基づいて、図16で示されるような傾向があるものとして、構図を解析する。ここで、図16においては、横軸がオープンスカイ度であり、縦軸がポートレート度である。
すなわち、積算値解析部14は、オープンスカイ度、およびポートレート度がいずれも高い場合、図16の構図K1で示されるような、中央に被写体があり、上部、および側面部が背景、または、空であるような構図であるものと解析する。構図K1には、中央に被写体があり、上部、および側面部が背景、または、空であるような構図である4枚の画像が例示されている。
また、積算値解析部14は、オープンスカイ度が低く、ポートレート度が高い場合、図16の構図K2で示されるような、中央に被写体があり、側面部が壁であるような構図であるものと解析する。構図K2には、中央に被写体があり、側面部が壁であるような構図である4枚の画像が例示されている。
さらに、積算値解析部14は、オープンスカイ度およびポートレート度がいずれも低い場合、図16の構図K3で示されるような、画像全体に被写体があり、奥行のあるものが存在しないような構図であるものと解析する。構図K3には、画像全体に被写体があり、奥行のあるものが存在しないような構図である4枚の画像が例示されている。
また、積算値解析部14は、オープンスカイ度が高く、ポートレート度が低い場合、図16の構図K4で示されるような、画像全体に奥行のある空や野原が広がるような構図であるものと解析する。構図K4には、画像全体に奥行のある空や野原が広がるような構図である4枚の画像が例示されている。
ステップS17において、高画質化処理部3は、積算値解析部14より供給されてくる解析結果である構図の情報に基づいて、入力画像Pを高画質化処理し、処理結果である画像P’を出力する。
このとき、高画質化処理部3は、例えば、上述した構図K1に対応するような構図の情報が供給されてきた場合、入力画像における中央に被写体が存在し、上部、または、側面部に空、または、背景がある画像として高画質化する。このような場合、図16の構図K1で示されるように、大きな建物などを離れた位置から空などを背景に撮像している画像である可能性が高い。そこで、高画質化処理部3は、例えば、ホワイトバランスなどを屋外であるものとして調整するなどして、入力画像を高画質化する。
また、高画質化処理部3は、例えば、上述した構図K2に対応するような構図の情報が供給されてきた場合、入力画像における中央に被写体が存在し、側面部に壁、または、背景がある画像として高画質化する。このような場合、図16の構図K2で示されるように、中央に被写体などを配置して撮像している画像である可能性が高い。そこで、高画質化処理部3は、例えば、被写体認識機能等により被写体の位置を検索し、検索された被写体の位置において、被写体の色補正などを施すなどして、入力画像を高画質化する。
さらに、高画質化処理部3は、例えば、上述した構図K3に対応するような構図の情報が供給されてきた場合、入力画像における全領域に被写体がある画像として高画質化する。このような場合、図16の構図K3で示されるように、画像全体に被写体が存在する状態で撮像している画像である可能性が高く、全体として高周波成分を多く含む画像である可能性が高い。そこで、高画質化処理部3は、例えば、全体としてシャープネスやコントラストを上げることにより、入力画像を高画質化する。
また、高画質化処理部3は、例えば、上述した構図K4に対応するような構図の情報が供給されてきた場合、入力画像における全領域に奥行のあるものが撮像されているような画像として高画質化する。このような場合、図16の構図K4で示されるように、画像全体に奥行きのあるものが存在する状態で撮像している画像である可能性が高い。そこで、高画質化処理部3は、例えば、全体として奥行値dを利用するなどして、近いものと遠いものとのシャープネスやコントラストを切り替えて処理するなどして、入力画像を高画質化する。
尚、以上においては、図14で示されるように、オープンスカイ領域重み付け平均値sdoおよびポートレート領域重み付け平均値sdpが、領域Z1,Z2で示される領域における奥行値dの重み付け平均値として求められる例について説明してきたが、オープンスカイ領域重み付け平均値sdoおよびポートレート領域重み付け平均値sdpの求められる領域は、図14で示される領域Z1,Z2に限られるものではなく、その他の領域であってもよい。
例えば、図17で示されるように、画像Pにおける上部の領域Z11の領域における奥行値dの重み付け平均値をオープンスカイ領域重み付け平均値sdoとして、側面部の領域Z11を除く領域Z12をポートレート領域重み付け平均値sdpとしてもよい。
さらに、重みw(x,y)の分布についても図14で示されるものでなくても良く、例えば、図17の左右下部で示されるように、重みw(x,y)の分布についても、それぞれ最大値を取る位置を画像Pの側面方向にシフトするようにしてもよい。
以上の処理により、入力画像における画素単位の奥行値dを正確に求めることにより、その積算値の平均値から入力画像の構図を推定することが可能となり、構図に対応した画像処理を実現することが可能となる。
<2.第2の実施の形態>
以上においては、入力画像における画素単位の奥行値dより構図を求めて、入力画像を高画質化する例について説明してきたが、求められた構図に基づいて、入力画像を適切に圧縮するようにしても良い。
[画像処理装置の構成例]
図18は、求められた構図に基づいて、入力画像を適切に圧縮するようにした画像処理装置1の構成例を示している。尚、図18において、図1と同一の機能を備えた構成については、同一名称、および同一符号を付しており、その説明は適宜省略するものとする。
すなわち、図18における画像処理装置1において、図1の画像処理装置1と異なる構成は、高画質化処理部3に代えて、画像圧縮処理部101を設けた点である。
画像圧縮処理部101は、画像解析部2より供給されてくる構図の情報に基づいて、入力画像を適切に圧縮する。
[図18の画像処理装置による画像処理]
次に、図19のフローチャートを参照して、図18の画像処理装置1による画像処理について説明する。尚、図19のフローチャートにおけるステップS111乃至S116の処理は、図6のフローチャートを参照して説明したステップS11乃至S16の処理と同様であるので、その説明は省略する。
ステップS117において、画像圧縮処理部101は、画像解析部2より供給されてくる構図の情報に基づいて、入力画像を圧縮する。すなわち、例えば、構図の情報として、図16における構図K1を示す情報が供給されてきた場合、図14における領域Z1,Z2の領域については、空である可能性が高い。このため、画像圧縮処理部101は、空である可能性の高い領域Z1,Z2の情報の圧縮率を向上することで、圧縮率を高めて圧縮する。この処理により、画質を低減させること無く、適切に画像を圧縮することが可能となる。
また、構図の情報として、構図K3を示す情報が供給されてきた場合、入力画像が全体として高周波成分が高い可能性がある。このため、画像圧縮処理部101は、圧縮率を低減させることなく圧縮する。この処理により、構図に応じて画質の低減レベルを調整して、適切に画像を圧縮することが可能となる。
本発明によれば、画像における画素単位の奥行値を正確に求めることが可能となり、求められた奥行値を利用することで、画像の構図を認識し、認識した構図に対応して適切な画像処理を実現することが可能となる。
ところで、上述した一連の情報処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図20は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
本発明を適用した画像処理装置の構成例を示すブロック図である。 図1の奥行検出部の構成例を示すブロック図である。 図2の焦点情報抽出部の構成例を示すブロック図である。 水平方向HPFおよび垂直方向HPFの構成例を示すブロック図である。 図2の奥行生成部の構成例を示すブロック図である。 図1の画像処理装置による画像処理を説明するフローチャートである。 奥行検出処理を説明するフローチャートである。 焦点情報抽出処理を説明するフローチャートである。 暗部処理部の動作を説明する図である。 奥行生成処理を説明するフローチャートである。 奥行生成処理を説明する図である。 トーンカーブを説明する図である。 彩度Sと係数Bとの関係を説明する図である。 オープンスカイ領域重み付け平均値およびポートレート領域重み付け平均値を説明する図である。 オープンスカイ度およびポートレート度とオープンスカイ領域重み付け平均値およびポートレート領域重み付け平均値との関係を説明する図である。 オープンスカイ度およびポートレート度と構図との関係を説明する図である。 その他のオープンスカイ領域重み付け平均値およびポートレート領域重み付け平均値を説明する図である。 本発明を適用した他の画像処理装置の構成例を示すブロック図である。 図18の画像処理装置による画像処理を説明するフローチャートである。 パーソナルコンピュータの構成例を説明する図である。
符号の説明
1 画像処理装置, 2 画像解析部, 3 高画質化処理部, 11 YUV分離部, 12 奥行検出部, 13 ブロック積算部, 14 積算値解析部, 31 焦点情報抽出部, 32 領域統合部, 33 暗部処理部, 34 奥行生成部, 35 照明成分抽出部, 36 彩度検出部, 51 水平方向HPF, 52 絶対値処理部, 52, 53 最大値抽出部, 54 垂直方向HPF, 55 絶対値処理部, 71 明暗統合部, 72 正規化部, 73 トーンカーブ制御部, 74 彩度制御部

Claims (5)

  1. 入力画像の画素毎に、奥行値を検出する奥行値検出手段と、
    前記奥行値を前記入力画像の所定の領域毎に分布する重みを用いて積算し、所定の領域毎の重み付け平均値を算出する算出手段と、
    前記入力画像の前記領域毎の重み付け平均値に基づいて、構図を解析する解析手段と、
    前記解析手段の解析結果に基づいて、前記入力画像を処理する処理手段とを含み、
    前記奥行検出手段は、
    入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出手段と、
    前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合手段と、
    前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理手段と、
    前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出手段と、
    前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合手段と、
    前記画素毎の奥行値を正規化する正規化手段と、
    前記正規化手段により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御手段と、
    前記画素毎に彩度を検出する彩度検出手段と、
    前記トーンカーブ制御手段により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御手段と
    を含む画像処理装置。
  2. 前記処理手段は、前記解析結果に基づいて、前記入力画像を高画質化処理する
    請求項1に記載の画像処理装置。
  3. 前記処理手段は、前記解析結果に基づいて、前記入力画像を圧縮処理する
    請求項1に記載の画像処理装置。
  4. 入力画像の画素毎に、奥行値を検出する奥行値検出ステップと、
    前記奥行値を前記入力画像の所定の領域毎に分布する重みを用いて積算し、所定の領域毎の重み付け平均値を算出する算出ステップと、
    前記入力画像の前記領域毎の重み付け平均値に基づいて、構図を解析する解析ステップと、
    前記解析ステップの処理での解析結果に基づいて、前記入力画像を処理する処理ステップとを含み、
    前記奥行検出ステップの処理は、
    入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、
    前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、
    前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、
    前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、
    前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、
    前記画素毎の奥行値を正規化する正規化ステップと、
    前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、
    前記画素毎に彩度を検出する彩度検出ステップと、
    前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップと
    を含む画像処理方法。
  5. 入力画像の画素毎に、奥行値を検出する奥行値検出ステップと、
    前記奥行値を前記入力画像の所定の領域毎に分布する重みを用いて積算し、所定の領域毎の重み付け平均値を算出する算出ステップと、
    前記入力画像の前記領域毎の重み付け平均値に基づいて、構図を解析する解析ステップと、
    前記解析ステップの処理での解析結果に基づいて、前記入力画像を処理する処理ステップとを含む処理をコンピュータに実行させ、
    前記奥行検出ステップの処理は、
    入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、
    前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、
    前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、
    前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、
    前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、
    前記画素毎の奥行値を正規化する正規化ステップと、
    前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、
    前記画素毎に彩度を検出する彩度検出ステップと、
    前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップとを含む
    プログラム
JP2008240334A 2008-09-19 2008-09-19 画像処理装置および方法、並びにプログラム Expired - Fee Related JP4655238B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008240334A JP4655238B2 (ja) 2008-09-19 2008-09-19 画像処理装置および方法、並びにプログラム
US12/560,827 US8520134B2 (en) 2008-09-19 2009-09-16 Image processing apparatus and method, and program therefor
CN2009101690910A CN101676951B (zh) 2008-09-19 2009-09-21 图像处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008240334A JP4655238B2 (ja) 2008-09-19 2008-09-19 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010072982A JP2010072982A (ja) 2010-04-02
JP4655238B2 true JP4655238B2 (ja) 2011-03-23

Family

ID=42029504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008240334A Expired - Fee Related JP4655238B2 (ja) 2008-09-19 2008-09-19 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8520134B2 (ja)
JP (1) JP4655238B2 (ja)
CN (1) CN101676951B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5024632B2 (ja) * 2008-09-19 2012-09-12 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN101751661B (zh) * 2008-12-01 2012-12-19 奇景光电股份有限公司 深度相关的影像加强系统及方法
JP5175910B2 (ja) * 2010-09-16 2013-04-03 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP5150698B2 (ja) * 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
JP5269921B2 (ja) * 2011-01-24 2013-08-21 富士フイルム株式会社 電子内視鏡システム及び電子内視鏡システムの作動方法
JP2013012820A (ja) * 2011-06-28 2013-01-17 Sony Corp 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるプログラム
US8824778B2 (en) * 2012-01-13 2014-09-02 Cyberlink Corp. Systems and methods for depth map generation
US20130237317A1 (en) * 2012-03-12 2013-09-12 Samsung Electronics Co., Ltd. Method and apparatus for determining content type of video content
JP2014006614A (ja) 2012-06-22 2014-01-16 Sony Corp 画像処理装置、画像処理方法、並びにプログラム
JP6548403B2 (ja) 2015-02-24 2019-07-24 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 画像処理装置、画像処理方法、及びプログラム
JP6548907B2 (ja) 2015-02-24 2019-07-24 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 画像処理装置、画像処理方法、及びプログラム
CN107851309A (zh) * 2016-04-05 2018-03-27 华为技术有限公司 一种图像增强方法及装置
JP7195430B2 (ja) * 2019-06-21 2022-12-23 株式会社ソニー・インタラクティブエンタテインメント 撮影データ生成装置、撮影データ生成方法及びプログラム
CN115953823B (zh) * 2023-03-13 2023-05-16 成都运荔枝科技有限公司 一种基于大数据的人脸识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1125263A (ja) * 1997-07-08 1999-01-29 Canon Inc 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ
JP2002374529A (ja) * 2001-06-15 2002-12-26 Fuji Heavy Ind Ltd ステレオ画像認識を用いた画像データの伝送方法及びその装置
JP2006013722A (ja) * 2004-06-23 2006-01-12 Matsushita Electric Ind Co Ltd 画像処理装置および画像処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3428581B2 (ja) 2000-12-22 2003-07-22 株式会社スクウェア ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムを記録したコンピュータ読取り可能な記録媒体。
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
KR20060129433A (ko) * 2004-03-01 2006-12-15 이아티아 이미징 피티와이 엘티디 깊이 정보를 포함하는 영상을 생성하기 위한 방법 및 장치
JP2005326621A (ja) * 2004-05-14 2005-11-24 Sony Corp 撮像装置、オートフォーカス装置並びにオートフォーカス方法
US7821570B2 (en) * 2005-11-30 2010-10-26 Eastman Kodak Company Adjusting digital image exposure and tone scale
US7720371B2 (en) * 2007-01-18 2010-05-18 Nikon Corporation Depth layer extraction and image synthesis from focus varied multiple images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1125263A (ja) * 1997-07-08 1999-01-29 Canon Inc 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ
JP2002374529A (ja) * 2001-06-15 2002-12-26 Fuji Heavy Ind Ltd ステレオ画像認識を用いた画像データの伝送方法及びその装置
JP2006013722A (ja) * 2004-06-23 2006-01-12 Matsushita Electric Ind Co Ltd 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP2010072982A (ja) 2010-04-02
CN101676951B (zh) 2012-09-26
US8520134B2 (en) 2013-08-27
CN101676951A (zh) 2010-03-24
US20100073521A1 (en) 2010-03-25

Similar Documents

Publication Publication Date Title
JP4655238B2 (ja) 画像処理装置および方法、並びにプログラム
JP5024632B2 (ja) 画像処理装置および方法、並びにプログラム
JP5615973B2 (ja) 高ダイナミックレンジ画像を捕捉するデバイスの作動法
JP5411706B2 (ja) デジタル画像のダイナミックレンジを増強するための装置及び方法
US7489345B2 (en) Image processing apparatus, image-taking system, image processing method and image processing program
US9641767B2 (en) Display apparatus and method using high dynamic range function for vehicle
JP2007049540A (ja) 画像処理装置および方法、記録媒体、並びに、プログラム
US11423515B2 (en) Image processing apparatus
JP4320572B2 (ja) 信号処理装置および方法、記録媒体、並びにプログラム
WO2005055588A1 (ja) ノイズ除去の強弱を画面内でコントロ−ルする画像処理装置、画像処理プログラム、画像処理方法、および電子カメラ
JP4497160B2 (ja) 画像処理装置および方法、並びにプログラム
CN109478316B (zh) 实时自适应阴影和高光增强
KR20160049954A (ko) 영상 처리 장치, 영상 처리 방법, 및 영상 처리 프로그램
JP5410378B2 (ja) 映像信号補正装置および映像信号補正プログラム
JP5203159B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP4742068B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP2012083848A (ja) 画像処理装置、画像処理方法、撮像装置、および画像処理プログラム
JP5381354B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP4996554B2 (ja) 画像高画質化装置、方法およびプログラム
JP2019004281A (ja) 画像処理装置
EP3300016B1 (en) Device and method for processing image
JP2019197579A (ja) 検出装置、検出方法及びプログラム
JP2005094452A (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP2005039457A (ja) 画像処理装置および方法
JP5043086B2 (ja) ドキュメント処理装置及びドキュメント処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees