JP5703255B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5703255B2
JP5703255B2 JP2012102940A JP2012102940A JP5703255B2 JP 5703255 B2 JP5703255 B2 JP 5703255B2 JP 2012102940 A JP2012102940 A JP 2012102940A JP 2012102940 A JP2012102940 A JP 2012102940A JP 5703255 B2 JP5703255 B2 JP 5703255B2
Authority
JP
Japan
Prior art keywords
image
image processing
value
sky
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012102940A
Other languages
English (en)
Other versions
JP2013232064A (ja
Inventor
利幸 小野
利幸 小野
安則 田口
安則 田口
松本 信幸
信幸 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012102940A priority Critical patent/JP5703255B2/ja
Priority to US13/796,095 priority patent/US9292732B2/en
Publication of JP2013232064A publication Critical patent/JP2013232064A/ja
Application granted granted Critical
Publication of JP5703255B2 publication Critical patent/JP5703255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法およびプログラムに関する。
従来、画像の各位置の奥行きを算出し、位置毎に、算出された奥行きに応じた画像処理を施して画像の奥行き感を向上させる技術が知られている。
特開2009−251839号公報
しかしながら、従来の技術では、画像内の全ての位置に対して奥行き感を向上させる処理を行うため、奥行き感の向上が望まれない部分についても処理が行われてしまうという問題があった。この場合、例えば、奥行きの範囲が狭いという問題がある。また例えば、屋内で撮影した画像において、背景を平滑化処理した場合に、画像の鮮鋭感が失われ、画質が劣化したように知覚されるという問題もある。
本発明が解決しようとする課題は、画像の奥行き感を向上させる処理をより適切に行うことができる画像処理装置、画像処理方法およびプログラムを提供することである。
実施形態の画像処理装置は、取得部により画像の位置毎の奥行き情報を取得する。画像処理部は、画像が所定の領域を含むか否かに応じて、画像内に奥行き情報に基づき非一様に第1の鮮鋭化処理を施すか、画像内に奥行き情報に関わらず一様に第2の鮮鋭化処理を施すかを切り替える。
図1は、実施形態に係る画像処理装置の一例の構成を示すブロック図である。 図2は、実施形態に係る画像処理を示す一例のフローチャートである。 図3は、実施形態に係る境界判定部の一例の構成を示すブロック図である。 図4は、実施形態に係る境界判定部の動作を示す一例のフローチャートである。 図5は、実施形態に係る空判定部の一例の構成を示すブロック図である。 図6は、実施形態に係る空判定部の動作を示す一例のフローチャートである。 図7は、実施形態に係る、信頼度fの計算に用いる特徴値の算出方法の一例を説明するための図である。 図8は、実施形態に係る、信頼度fの計算に用いる特徴値の算出方法の別の例を説明するための図である。 図9は、実施形態に係る、画像から青空と雲との境界を抽出する処理を説明するための図である。 図10は、実施形態に係る、奥行き値Dの算出方法の例を説明するための図である。 図11は、実施形態に係る、値zの決定処理を説明するための図である。 図12は、実施形態に係る鮮鋭化処理を示す一例のフローチャートである。 図13は、実施形態を適用可能なコンピュータ装置の一例の構成を示すブロック図である。
以下、実施形態に係る画像処理装置について説明する。図1は、実施形態に係る画像処理装置の一例の構成を示す。画像処理装置は、境界判定部101、空判定部102、取得部103および画像処理部104を備える。
これら境界判定部101、空判定部102、取得部103および画像処理部104は、それぞれ独立したハードウェアが互いに協働して動作するように構成することができる。これに限らず、境界判定部101、空判定部102、取得部103および画像処理部104は、一部または全部がCPU(Central Processing Unit)上で動作するソフトウェアで構成されていてもよい。
境界判定部101は、入力画像の構図を判定し、判定結果(境界判定結果)と、構図に係る座標情報を出力する。空判定部102は、画像が空を含むか否かを判定し、判定結果(空判定結果)と、空を示す情報である信頼度とを出力する。取得部103は、境界判定部101から出力される座標情報と、空判定部102から出力される信頼度とに基づき入力画像の奥行き情報(奥行き値)を取得する。
なお、信頼度および奥行き値は、画像の所定単位毎に計算する。実施形態では、画像の画素毎に信頼度および奥行き値を計算する。
画像処理部104は、入力画像に対して鮮鋭化処理を施す。このとき、画像処理部104は、境界判定部101から出力される境界判定結果と、空判定部102から出力される空判定結果とに基づき、入力画像が所定の領域を含むか否かを判定する。画像処理部104は、入力画像が所定の領域を含むと判定した場合に、取得部103から出力される奥行き値に基づき、入力画像に対して非一様に鮮鋭化処理を施す。
(全体の処理の流れ)
図2は、実施形態に係る画像処理装置における画像処理を示す一例のフローチャートである。先ず、ステップS21で、境界判定部101が入力画像から構図を判定する。実施形態では、画像の構図として、画像が、奥行きが連続して変化する領域と、奥行きが固定的となっている領域との境界線を含むか否かを判定している。
この境界線の具体的な例としては、水平線や地平線が挙げられる。すなわち、画像がカメラにより撮影されたものである場合、カメラ手前側(画像下側)から水平線や地平線に向けて、奥行きが連続的に変化する。一方、地平線や水平線は、カメラからの距離が実質的に無限大となる境界を表すと考えられ、画像において地平線や水平線より上側は、奥行きが固定的とされる。また、境界線は、上述の水平線や地平線に限られず、例えば地面を構成する平面と立体物との境界も、境界線に含まれる。
次に、ステップS22で、空判定部102が入力画像が空を含む画像であるか否かを判定する。この場合、空を含む画像は、雲を含んでいてもよい。次のステップS23で、取得部103が、境界判定部101から出力される境界線の座標情報と、空判定部102から出力される空を示す信頼度とに基づき、奥行き情報を取得する。ここで、取得部103は、奥行き情報を、画像内の所定単位毎の奥行き値として取得する。
次のステップS24で、画像処理部104が、境界判定部101から出力される境界判定結果と、空判定部102から出力される空判定結果とに基づき、入力画像に対して施す鮮鋭化処理を、画面内で一様の強度で行う(画面一様処理)か、画面内で非一様の強度で行う(画面非一様処理)かを選択する。画像処理部104は、例えば画面非一様処理を選択した場合、取得部103から出力された奥行き情報に基づき、入力画像に対して画面内で非一様の強度で鮮鋭化処理を施す。
(境界線の判定)
次に、図2のフローチャートにおけるステップS21の構図の判定処理について、より詳細に説明する。図3は、実施形態に係る境界判定部101の一例の構成を示す。また、図4は、境界判定部101の動作を示す一例のフローチャートである。図3に示されるように、境界判定部101は、構図判定部1011と、境界線座標算出部1012とを有する。
図4のフローチャートにおいて、境界判定部101は、ステップS31で、構図判定部1011により処理対象の画像(入力画像)が境界線を含む画像であるか否かを判定する。判定結果は、境界判定結果として出力される。
画像が境界線を含む画像であるか否かの判定は、例えば、特開2012−15744号公報に開示されている、SVM識別器を用いた方法により行うことができる。すなわち、特開2012−15744号公報では、画像から特徴量を抽出し、境界線を含む画像の集合と境界線を含まない画像の集合とを用いて予め学習しておいたSVM(Suport Vector Machine)識別器を用いることで、境界線を含む画像であるか否かを判定している。
より具体的には、予め以下の処理を行いSVM識別器による学習を行う。例えば、画像に水平線または地平線を含む構図を想定する。この構図によれば、画像において水平線や地平線の下部が水面や地面に対応し、上部が空に対応する。このように想定された構図に対して、画像の左上、右上、右下および左下にそれぞれ算出領域を設定し、算出領域毎に画素値の統計値、例えば色のヒストグラムを算出する。そして、左上および右上の算出領域の類似度s12、右上および右下の算出領域の類似度s24、右下および左下の算出領域の類似度s34、ならびに、左下および左上の算出領域の類似度s13をそれぞれ求める。この4の類似度を含む特徴ベクトルv=(s12,s13,s24,s34)を作成する。多数のサンプル画像についてこの特徴ベクトルvを作成し、2クラス識別器であるSVM識別器に学習させる。
構図判定部1011は、入力画像における左上、右上、右下および左下にそれぞれ算出領域の類似度s12、s13、s24およびs34による特徴ベクトルvを、上述の学習を行ったSVM識別器を用いて評価することで、入力画像が境界線を含む画像であるか否かを判定する。
なお、入力画像が境界線を含む画像であるか否かを判定する方法は、このSVM識別器を用いた方法に限定されない。例えば、後述する境界線座標算出部1012の動作と同様にして境界線座標を求め、その計算過程において算出されるライン毎のエッジ強度の最大値が閾値を超えた場合に、当該画像が境界線を含む画像であるとして判定することもできる。
境界判定部101は、ステップS31で、入力画像が境界線を含む画像であると判定した場合、処理をステップS32に移行させる。ステップS32で、境界判定部101は、境界線座標算出部1012により入力画像から境界線の座標を計算する。境界線座標算出部1012は、先ず、水平なエッジに反応するエッジ検出オペレータを用いて、処理対象の画像(入力画像)の全ての画素についてエッジ強度を求める。次に、境界線座標算出部1012は、画像の各水平ライン上の画素のエッジ強度を加算し、ライン毎のエッジ強度を求める。このエッジ強度が最大となるラインを、境界線の座標として算出する。
なお、実施形態では、境界線が水平な直線であるものとして扱うが、これはこの例に限定されない。例えば、エッジ強度が最大となる斜めのラインを計算し、境界線とすることも可能である。この場合、エッジ検出オペレータにおけるエッジ検出方向を斜めに変えて、斜め方向にエッジ強度を求め、求められたエッジ強度を、斜め方向毎に加算して、斜め方向の境界線を判定する。
なお、境界判定部101は、ステップS31で入力画像が境界線を含まない画像であると判定した場合、処理を図4のフローチャートから抜け、境界線座標の算出処理を行わない。
(空の判定)
次に、図2のフローチャートにおけるステップS22の空を含む画像であるか否かの判定処理について、より詳細に説明する。図5は、実施形態に係る空判定部102の一例の構成を示す。また、図6は、空判定部102の動作を示す一例のフローチャートである。図5に示されるように、空判定部102は、信頼度算出部1021と、空領域判定部1022とを有する。
図6のフローチャートにおいて、空判定部102は、ステップS41で、信頼度算出部1021により、処理対象の画像(入力画像)の画素毎に、当該画素が空の画像を表現している度合を示す値を計算する。この、画素が空の画像を表現している度合の値を、以下、信頼度fと呼ぶ。信頼度fの計算は、画素値と、周辺領域から抽出した画像特徴量とを用いて、事前に学習したSVM識別器を用いて行う。
実施形態において、信頼度fを計算するために用いる特徴値の算出方法について、図7を用いてより具体的に説明する。信頼度算出部1021は、入力画像200に対し、注目画素220を中心にして所定の大きさ(例えば7画素×7画素)の領域210を設定する。信頼度算出部1021は、領域210に含まれる各画素2301、2302、…について、水平方向および垂直方向に隣接する画素との画素値(例えば輝度値Y)の差分をそれぞれ計算し、差分の絶対値を求める。信頼度算出部1021は、領域210内の各画素2301、2302、…について算出した各差分絶対値のうち最大の差分絶対値を、領域210における注目画素220の第1特徴値とする。
さらに、信頼度算出部1021は、注目画素220について、輝度値Y、色差値UおよびVを取得し、それぞれ第2特徴量、第3特徴量および第4特徴量として用いる。信頼度算出部1021において、SVM識別器により、これら第1〜第4特徴量について、空を被写体とした画像の集合と、空以外を被写体とした画像の集合とを用いて予め学習しておく。
信頼度算出部1021は、上述のように予め学習されたSVM識別器を用いて、入力画像200の各画素を順次注目画素220として、第1〜第4特徴量を注目画素220毎に算出する。そして、第1〜第4特徴量を並べたベクトルxを用いて、次式(1)および式(2)から信頼度fを計算する。
なお、式(2)において、値wおよび値bは、SVM識別器の学習により予め得られているパラメータであり、それぞれ4次元のベクトルである。また、記号tは、ベクトル(行列)の転置を示す。値wおよび値bは、空を表現する画素において値p≧0となるように学習されている。すなわち、式(1)によれば、空を表現する画素においては、信頼度f≧0.5となる。
なお、信頼度fの算出方法は、上述の式(1)を用いた算出方法に限られない。すなわち、信頼度fは、値pの増加に対して0から1の範囲で単調増加する関係にあればよい。
また、上述では、入力画像の画素毎に第1〜第4特徴量を算出するように説明したが、これはこの例に限定されない。例えば、入力画像を所定サイズのブロックに分割し、ブロック毎に第1〜第4特徴量を求める。各ブロックは、複数の画素を含む。このブロック毎の第1〜第4特徴量を用いて上述した式(1)および式(2)に基づき信頼度fを算出し、算出した信頼度fを、当該ブロックに含まれる画素それぞれの信頼度fとしてもよい。
図8を用いて、より具体的に説明する。図8に例示されるように、入力画像200を、それぞれ複数の画素を含む所定サイズのブロック2401,1、2401,2、…、240x,y、…、240m,nに分割する。信頼度算出部1021は、各ブロック2401,1、2401,2、…、240x,y、…、240m,nにおいて、各画素について上述と同様にして第1〜第4特徴量を算出する。そして、信頼度算出部1021は、各ブロック2401,1、2401,2、…、240x,y、…、240m,nにおいて、ブロック内の各画素について算出した各第1〜第4特徴量を代表する値を求め、各代表値をブロックの第1〜第4特徴量とする。このブロックの第1〜第4特徴量に基づき信頼度fを算出する。なお、代表値は、例えばブロック内の各画素ついて算出した各第1〜第4特徴量それぞれの平均値を用いることができる。
ところで、昼間の空の画像は、青空の部分と雲の部分とが混在するのが一般的である。上述したようにして計算した信頼度fは、青空部分と雲部分との境界で低い値となる場合がある。これは、青空部分と雲部分との境界では、第1特徴量が大きくなることが要因である。また、画像のノイズの影響により、空の領域内において信頼度fが低い値となる場合もある。
そこで、信頼度fを各座標(各画素位置)における値として持つマップを作成し、このマップに基づき信頼度fに対して補正処理を施し、画像における空の領域内に存在する孤立点や、青空と雲との境界における信頼度fの精度を高める。例えば、画像に対して膨張および収縮をそれぞれ同回数行うクロージング処理を、マップ内の各信頼度fに対して適用することで、この場合の補正処理を行うことができる。
一方、上述の補正処理を画像の全画素において行うと、空ではない領域の信頼度fを誤ってより高い値に補正してしまう場合がある。そのため、画像に対し、被写体が青空と雲との境界であるか否かを画素毎に判定し、該当する画素に対して選択的に上述の補正処理を施すことが好ましい。
この、画像から青空と雲との境界を抽出する処理について説明する。信頼度算出部1021は、画像300の各画素において、水平方向および垂直方向それぞれについて、明度の変化と色(青味)の変化とを算出する。明度および色の青味は、それぞれ、画像のYUV値のうち輝度値Yおよび色差値Uを用いることができる。信頼度算出部1021は、明るさの変化の方向と、色の青味の変化の方向とが一致していない画素を、青空と雲との境界部分の画素であると判定する。すなわち、この判定は、例えば青空(青)から雲(白)に向けて値が変化する場合、明度が高くなり、色に関しては無彩色に近付くため青味が低下することを利用する。
図9を用いて、画像から青空と雲との境界を抽出する処理について、より具体的に説明する。図9は、画像300において、青空301の中に白色の雲302と、黒色の被写体303とが存在する例について示している。先ず、青空301と雲302との境界について考える。例えば、垂直方向の座標y1において水平方向に青空301の部分から雲302の部分に向けて画素値の変化を調べる。この場合、曲線310に例示されるように、青空301と雲302との境界部分である座標(x1,y1)近傍において、輝度値Yが増加する。一方、色差値Uは、曲線311に例示されるように、当該座標(x1,y1)近傍において減少する。
次に、青空301と黒色の被写体303との境界について考える。例えば、垂直方向の座標y2において青空301の部分から被写体303の部分に向けて画素値の変化を調べる。この場合、曲線320に例示されるように、青空301と被写体303との境界部分である座標(x2,y2)近傍において、輝度値Yが減少する。色差値Uについても同様に、曲線321に例示されるように、当該座標(x2,y2)近傍において減少する。なお、曲線320および321、ならびに、上述した曲線310および311は、x方向を拡大して示している。
したがって、例えば水平方向に輝度値Yおよび色差値Uの変化を見ていく場合、互いに対応する位置における輝度値Yおよび色差値Uの変化の方向を比較することで、青空301と雲302との境界部分に対応する画素位置を取得することができる。
より具体的には、各画素位置が青空301と雲302との境界部分であるかの判定は、水平方向および垂直方向それぞれについて輝度値Yおよび色差値Uの変化を見ることにより行い、水平方向の判定結果と垂直方向の判定結果とが共に青空301と雲302との境界部分であることを示していた場合に、その画素位置が青空301と雲302との境界部分であるとする。
また、輝度値Yおよび色差値Uのうち少なくとも一方の変化の絶対値が閾値以下である場合に、その画素位置を上述の補正処理の対象とするようにしてもよい。
なお、信頼度fの計算方法は上述した方法に限られない。例えば、画像内において、上述した境界線座標算出部1012で算出された境界線よりも上部で各画素値が平坦である領域を検出し、その領域の平均の色を取得する。そして、画像の画素毎に、平均の色に画素値が近いほど信頼度fを大きく算出することもできる。
図6のフローチャートの説明に戻り、ステップS41で上述のようにして信頼度fが計算されたら、処理がステップS42に移行される。ステップS42では、空領域判定部1022が、処理対象の画像が空を含む画像であるか否かを、信頼度fの値を用いて判定する。実施形態では、この判定を、画像内における空の領域が予め定められた面積(面積比率)以上であるか否かに基づき行う。
より具体的には、空領域判定部1022は、画像内で信頼度fが所定値以上(この例ではf≧0.5)の値を取る画素数を求める。空領域判定部1022は、この画素数が画像内の全画素数に対して予め定められた比率以上である画像を、空を含む画像であると判定する。
(奥行き値取得)
次に、図2のフローチャートにおけるステップS23の、奥行き値の取得処理について、より詳細に説明する。取得部103は、処理対象の画像の各位置における奥行き情報を取得する。より具体的には、取得部103は、境界判定部101で求められた境界線の座標yborderと、空判定部102で求められた画素毎の信頼度f(x,y)とを用いて、下記の式(3)により、画素毎の奥行き値D(x,y)を求める。
なお、式(3)において、(x,y)は、データの水平方向および垂直方向の座標を指定するインデックスであり、例えば処理対象の画像における各画素位置に対応する。このとき、垂直方向の座標yは、画像の上端側から下端側に向けて値が増加するものとし、水平方向の座標xは、画像の左端側から右端側に向けて値が増加するものとする。また、値zおよび値αは、予め定める正の定数である。
式(3)の上側の式は、画像における境界線よりも上の領域に対応する。式(3)の下側の式は、境界線よりも下の領域に対応する。ここで、奥行き値Dは、値が大きいほどカメラ(視点)から被写体までの距離が近い(奥行きが浅い)ことを示す。
奥行き値Dの算出方法の例を、図10を参照しながら説明する。図10(a)は、処理対象である入力画像500の例を示す。この例では、入力画像500は、青空502、雲503および504、遠方の山505、ならびに、地面506の各画像を含んでいる。図10(b)は、図10(a)の画像に対応する奥行き値Dを模式的に示す。図10(b)では、奥行き値Dが色の濃さで表現され、小さい奥行き値Dがより濃い色で表現されている。
入力画像500が画像処理装置に入力されると、境界判定部101は、境界線501を算出する。また、空判定部102は、入力画像500の各位置について信頼度fを算出する。ここでは、青空502、雲503および504の信頼度fが高く、それ以外(山505および地面506)では信頼度fが低く算出されたものとする。一例として、青空502、雲503および504が信頼度f=1、山505および地面506が信頼度f=0であったものとする。
取得部103は、これらの信頼度fの値を上述の式(3)に当て嵌めて、入力画像500の位置毎の奥行き値Dを算出する。青空502、雲503および504の各領域は、信頼度f=1、且つ、境界線501よりも上部の領域なので、式(3)の上の式が該当し、奥行き値D=0となる。同様に境界線501よりも上部の領域である山505は、信頼度f=0であるので、奥行き値D=zとなる。さらに、境界線501よりも下部の領域である地面506は、式(3)の下の式が該当し、奥行き値Dは、信頼度fに関わらず、垂直方向の座標yに応じて画像の上側から下側に向けて値zから単調増加する。
図10(b)は、このようにして求めた奥行き値Dに色の濃さを対応付けて、画像における奥行き値Dの分布を模式的に示す。すなわち、図10(b)において、より色の濃い部分がより奥行きの深い部分であり、例えば奥行き値D=0である青空502、雲503および504の各領域は、最も濃い色で塗り潰して示してある。また、奥行き値D=zである山505の部分は、中間の色で塗り潰して示してある。さらに、地面506は、境界線501の高さから入力画像500の最下端に向けて、中間の色から白色へ連続的に変換するグラデーションとなり、奥行きが連続的に変化していることが示される。
なお、奥行き値Dの算出式は、上述の式(3)に限定されない。例えば、奥行き値Dは、信頼度f=1のときに、0以上の所定の値になるようにしてもよい。この場合、信頼度fが全ての座標で0の時、奥行き値Dは、座標yの増加に従って単調増加することが好ましい。
また、奥行き値D(x,y)は、信頼度fが小さいほど値が大きくなるように補正してもよい。例えば、補正値g、補正値gを制御する正の定数βを用いて、奥行き値Dを次式(4)で計算する。
式(4)において、補正値gは、次式(5)から計算できる。
g(x,y)=1−f(x,y) …(5)
これに限らず、補正値gは、上述した式(2)の値pを用いて、次式(6)により計算してもよい。なお、式(6)において、値σは、正の定数である。値σを大きくするほど、より空らしくない画素についてのみ、補正値gが大きい値を持つようになる。
補正値gは、上述した式(5)または式(6)を用いて求めるのに限定されない。すなわち、補正値gは、信頼度fが小さいほど大きい値を取るようにすればよい。例えば、遠景の被写体は、霞がかかるなどにより色が空に近付き信頼度fが大きくなることがある。一方、信頼度fが小さいということは、被写体が近くにあることを示している。したがって、上述した補正により、奥行き値Dを補正することができる。
上述した式(3)または式(4)の値zを、処理対象の画像に応じて適応的に変化させることもできる。この値zの決定処理を、図11を参照しながら説明する。図11は、図10(a)の入力画像500を処理する場合の模式図である。図11において、図10(a)と共通する部分には同一の符号を付して、詳細な説明を省略する。
先ず、取得部103は、その高さよりも上部において信頼度fが閾値以上の値のみとなる画像の高さHを計算する。この高さHは、空ではない被写体の高さを意味する。次に、境界線501から下の高さAと、境界線501から上の高さCと、境界線501の高さAと高さHとの間の高さBを計算する。次に、値zを制御するための数値Rを、次式(7)により計算する。
R=R1+R2 …(7)
式(7)において、値R1および値R2は、それぞれ次式(8)および式(9)にて求める。なお、式(8)において、関数clip()は、引数が0以下であれば0を返し、引数が1以上であれば1を返し、引数が0を超え1未満であれば引数と同じ値を返す。また、値hは、入力画像500の高さである。
1=clip{(0.75−A/h)/0.5} …(8)
2=B/C …(9)
値R1は、境界線501の高さAに関する値であって、0≦R1≦1である。境界線501が画像の低い位置にあるほど、当該画像において境界線501のより上部に注目する被写体があり、且つ、その被写体は、より近くにある場合が多いと考えられる。そのため、式(8)に従い、境界線501の高さAが低くなるに連れ、値R1を大きな値とする。なお、式(8)において、0.75および0.5は、実験的に定められた定数であって、これらの値に限定されるものではない。
値R2は、境界線501より上部、且つ、空以外の被写体の占める高さの割合を示し、0≦R2≦1である。すなわち、境界線501より上部の領域において、空以外の被写体の占める高さBの割合が大きいほど、当該被写体が近くにあると考えられる。そのため、式(9)に従い、高さBが高くなるに連れ、値R2を大きな値とする。
このようにして式(7)〜式(9)により計算された値Rは、境界線501より上にある、空ではない被写体(図11の例では山505)が、距離が近くにある場合により大きくなる値である。値zを、このように計算された値Rが大きいほど大きくなるように、計算する。このように、値zを画像に応じて適応的に決定することで、境界線501より上にある被写体の奥行き値Dを、より実際の奥行きに合うように設定することが可能となる。上述した方法のように、画像の構図に基づいて奥行き値Dを計算することで、構図に対して奥行きの前後関係の逆転の少ない安定した奥行き値Dを取得することができる。
なお、取得部103が奥行き情報を取得する方法は、上述に限られない。例えば、入力画像がステレオ画像である場合には、取得部103は、その視差量から奥行き情報を取得できる。
また、取得部103は、処理対象の画像からではなく、別途距離計測センサを用いて計測した奥行き情報を取得してもよい。例えば、入力画像の撮影時などに、距離計測センサを用いて撮影範囲の各位置の距離を計測し、計測された距離を示す情報を、撮影範囲の座標(入力画像の座標)と対応付けて、入力画像と共に取得部103に入力する。この距離の実測値から奥行き情報を取得する方法を用いる場合、境界判定部101の境界線の座標の出力と、空判定部102からの信頼度fの出力が不要となる。
なお、取得部103は、各種の方法で取得した奥行き情報を基に、信頼度fが大きい位置の奥行き値を、奥行きが遠いことを示す値に補正したものを奥行き情報とすることもできる。
(鮮鋭化処理)
次に、図2のフローチャートにおけるステップS24の、入力画像の鮮鋭化処理について、より詳細に説明する。画像処理部104は、取得部103から出力される奥行き値Dと、境界判定部101および空判定部102からそれぞれ出力される境界判定結果および空判定結果とに基づき、入力画像に対して画面内で一様または非一様の鮮鋭化処理を施す。
図12は、実施形態に係る画像処理部104による鮮鋭化処理を示す一例のフローチャートである。画像処理部104は、先ず、ステップS61で、境界判定部101から出力される境界判定結果に基づき、入力画像が境界線を含むか否かを判定する。若し、入力画像が境界線を含まないと判定した場合、画像処理部104は、処理をステップS64に移行させ、入力画像に対する鮮鋭化処理を、画面内で一様の強度で行う。
一方、画像処理部104は、ステップS61で、入力画像が境界線を含むと判定した場合、処理をステップS62に移行させる。ステップS62で、空判定部102から出力される空判定結果に基づき、入力画像が空を含むか否かを判定する。若し、入力画像が空を含まないと判定した場合、画像処理部104は、処理をステップS64に移行させる。
一方、画像処理部104は、ステップS62で、入力画像が空を含むと判定した場合、処理をステップS63に移行させる。画像処理部104は、ステップS63で、入力画像に対する鮮鋭化処理を、画像内で非一様の強度で行う。
なお、図12のフローチャートにおいて、ステップS61による境界線を含むか否かの判定処理を行わず、ステップS62から処理を開始し、処理をステップS63の処理に移行させるか、ステップS64の処理に移行させるかを判定することもできる。この場合、画像処理部104は、図2のフローチャートにおいて処理がステップS24に移行されると、先ず、図12のフローチャートにおけるステップS62で入力画像が空を含むか否かを判定する。画像処理部104は、入力画像が空を含む画像であれば、画面内で非一様の鮮鋭化処理を行い(ステップS63)、入力画像が空を含まない画像であれば、画面内で一様の鮮鋭化処理を行う(ステップS64)。
図12のフローチャートにおけるステップS63の、非一様の鮮鋭化処理について、より詳細に説明する。ステップS63では、上述のようにして取得部103で算出した座標毎(画素毎)の奥行き値Dを用いて、入力画像に対して、画像の画面内について非一様の強度で鮮鋭化処理を施す。先ず、画像処理部104は、奥行き値Dを、画像処理の強度を示す強度λに変換する。画像処理部104は、例えば次式(10)を用いて、奥行き値Dの強度λへの変換を行う。なお、式(10)中、値γは、正の定数である。
λ(x,y)=γD(x,y) …(10)
式(10)によれば、奥行き値Dが大きいほど、強度λの値も大きくなる。これはこの例に限定されず、例えば奥行き値Dが所定の値に近いほど強度λが大きくなるようにしてもよい。また、奥行き値Dと強度λとの対応関係を記憶するテーブルを予め準備し、画像処理部104は、このテーブルを参照して、取得した奥行き値Dに対応する強度λを取得してもよい。
次に、画像処理部104は、式(10)で求めた強度λに基づき、入力画像の鮮鋭化処理を行う。鮮鋭化処理は、例えば、元画像と、元画像をぼかした画像との差分に基づき元画像の輪郭部の色や明暗差を強調する、アンシャープマスク処理を用いることができる。例えば、画像処理部104は、次式(11)に従い入力画像Iに対してアンシャープマスク処理を施し、鮮鋭化された出力画像I’を得る。なお、式(11)において、値Fは、入力画像Iに対してローパスフィルタ処理を施した画像を示す。
I’(x,y)=I(x,y)+λ(x,y){I(x,y)−F(x,y)} …(11)
式(10)に示したように、強度λは、入力画像Iの各画素について求めた奥行き値Dに比例する値である。したがって、出力画像I’は、入力画像Iの各画素の奥行き値Dに応じて、画面内で非一様の強度でアンシャープマスク処理が施されることになる。
なお、入力画像に対する非一様な鮮鋭化処理は、上述の方法に限定されない。例えば、画像処理部104は、他の鮮鋭化方式により入力画像に対して画面内で一様の強度で鮮鋭化処理を施した画像を生成し、当該画像と入力画像とを、強度λの値に応じてαブレンドして、鮮鋭化された出力画像を得るようにしてもよい。
画像処理部104は、鮮鋭化処理に加えて、画像拡大処理を行ってもよい。画像拡大に超解像方式を用いる場合は、画像処理部104は、例えば以下の手順で処理する。画像処理装置が動画像を処理するものとする。この場合、画像処理部104は、フレームバッファを備え、処理で使用するための、前時刻の入力画像を当該フレームバッファに保持しておく。次に、各種の超解像方式を用い、現時刻の入力画像と前時刻の入力画像とから、超解像度処理結果の画像Sを計算する。超解像方式には、例えば、バックプロジェクション法を適用することができる。次に、画像処理部104は、強度λを、画像Sと同じ解像度となるように拡大処理し、強度λ’を取得する。強度λの拡大処理は、例えば双線形補間を用いて行うことができる。
画像処理部104は、拡大された強度λ’を用いて、次式(12)により出力画像J’を得る。なお、式(12)において、値Jは、入力画像を例えば双線形補間を用いて画像Sと同じ解像度になるように拡大した画像を示す。
J’(x,y)=J(x,y)+λ’(x,y){S(x,y)−J(x,y)} …(12)
図12のフローチャートにおけるステップS64の、一様の鮮鋭化処理について、より詳細に説明する。ステップS64では、画像処理部104は、入力画像Iに対して、例えば次式(13)に従いアンシャープマスク処理を施して、入力画像Iの画面内に一様の強度で鮮鋭化処理を施して出力画像I’を得る。
I’(x,y)=I(x,y)+μ{I(x,y)−F(x,y)} …(13)
式(13)において、値μは、正の定数である。ここで、値μは、任意の正の値に設定することができる。このとき、強度λの取り得る値の範囲に応じて値μを定め、上述したステップS64における処理強度との差を一定以下にすると好ましい。例えば、強度λの取り得る値の最大値や中間値を、値μとすることができる。
画像処理部104が鮮鋭化処理に加えて画像拡大処理を行う場合には、上述のステップS63で説明した方法と同様にして、超解像度処理結果の画像Sを計算し、下記の式(14)に従い出力画像J’を得る。
J’(x,y)=J(x,y)+μ{S(x,y)−J(x,y)} …(14)
このように、実施形態に係る画像処理装置によれば、入力画像が所定の画像を含む場合に、入力画像に対する鮮鋭化処理を、画面内に非一様の強度で行うか一様の強度で行うかを切り替えるようにしている。所定の画像を境界線を含み、且つ、空を含む画像とした場合に、境界線および空を含む画像は、風景画像などの屋外で遠景を含む深い奥行きの範囲を撮影した画像であると考えられる。このような所定の画像に対して、遠景と近景との奥行きの差の知覚の向上、すなわち、奥行き感を向上させることで、高画質化の効果が得られる。
一般に、画像の局所的な情報から被写体の絶対的な奥行きを推定することは困難である。これに対して、実施形態では、画像の構図から奥行きを推定することで、深い奥行きの範囲を撮影した画像か否かを推定できるという利点がある。
上述したように、実施形態に係る画像処理装置によれば、奥行き感の向上が望まれる画像に対して選択的に奥行き感を向上させる処理を行うことが可能となる。一方、屋内で撮影された画像のように、奥行き感の向上が望まれない画像に対しては、画面全体が鮮鋭化されることにより、高画質な画像を得ることが可能となる。このように、実施形態に係る画像処理装置では、画像の奥行き感を向上させる処理をより適切に行うことができる。
実施形態に係る画像処理装置は、静止画像および動画像の何れを入力画像として入力しても、同様に、奥行き感の向上による高画質を得ることができる。また、上述では、空判定部102において青空を判定するように説明したが、これはこの例に限定されず、夕焼けなどの赤味を帯びた空を判定することも可能である。この場合、例えば画像全体または所定領域の色味を求め、求められた色味に基づき青味が強ければ青空、赤味が強ければ夕焼け空などと判定することが可能である。また、夕焼け空と判定された場合、信頼度fや雲との境界を判定する際に、色差値Uの代わりに色差値Vを用いることが考えられる。
(他の実施形態)
上述の実施形態に係る画像処理装置は、汎用のコンピュータ装置を基本ハードウェアとして用いて実現することも可能である。図13は、上述の実施形態を適用可能なコンピュータ装置400の一例の構成を示す。
図13に例示されるコンピュータ装置400において、バス401に対してCPU402、ROM(Read Only Memory)403、RAM(Random Access Memory)404および表示制御部405が接続される。また、バス401に対して、ハードディスク407、ドライブ装置408、入力部409および通信I/F410が接続される。
CPU402は、ROM403およびハードディスク407に記憶されるプログラムに従い、RAM404をワークメモリとして用いて、このコンピュータ400の全体を制御する。表示制御部405は、CPU402により生成された表示制御信号を、表示装置406が表示可能な信号に変換して出力する。
ハードディスク407は、上述のCPU402が実行するためのプログラムが格納されると共に、入力画像となる画像データや他のデータが格納される。ドライブ装置408は、脱着可能な記録媒体420が装填可能とされ、当該記録媒体420に対するデータの読み書きを行うことができる。ドライブ装置408が対応可能な記録媒体420としては、CD(Compact Disk)、DVD(Digital Versatile Disk)といったディスク記録媒体や、不揮発性の半導体メモリが考えられる。
入力部409は、外部からのデータの入力を行う。例えば、入力部409は、USB(Universal Serial Bus)やIEEE1394(Institute of Electrical and Electronics Engineers 1394)といった所定のインターフェイスを有し、このインターフェイスにより外部の機器からのデータ入力を行う。入力画像の画像データは、この入力部409から入力することができる。
また、入力部409に対して、キーボードやマウスといった入力デバイスが接続される。ユーザは、例えば表示装置406に対する表示に応じてこれら入力デバイスを操作することで、コンピュータ装置400に対して指示を出すことができる。
通信I/F410は、所定のプロトコルを用いて外部の通信ネットワークと通信を行う。入力画像の画像データを、この通信I/F410を介して外部の通信ネットワークから供給してもよい。
上述した境界判定部101、空判定部102、取得部103および画像処理部104は、CPU402上で動作する画像処理プログラムによって実現される。実施形態に係る画像処理を実行するための画像処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD、DVDなどのコンピュータで読み取り可能な記録媒体420に記録して提供される。これに限らず、画像処理プログラムを、ROM403に予め記憶させて提供してもよい。
さらに、実施形態に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワークに接続されたコンピュータ上に格納し、通信ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、実施形態に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワーク経由で提供または配布するように構成してもよい。
実施形態に係る画像処理を実行するための画像処理プログラムは、例えば、上述した各部(境界判定部101、空判定部102、取得部103および画像処理部104)を含むモジュール構成となっており、実際のハードウェアとしてはCPU402が例えばハードディスク407から当該画像処理プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM404)上にロードされ、各部が主記憶装置上に生成されるようになっている。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
101 境界判定部
102 空判定部
103 取得部
104 画像処理部
1011 構図判定部
1012 境界線座標算出部
1021 信頼度算出部
1022 空領域判定部

Claims (14)

  1. 画像の位置毎の奥行き情報を取得する取得部と、
    前記画像が所定の領域を含むか否かに応じて、前記画像内に前記奥行き情報に基づき非一様に第1の鮮鋭化処理を施すか、前記画像内に前記奥行き情報に関わらず一様に第2の鮮鋭化処理を施すかを切り替える画像処理部と
    を有する
    ことを特徴とする画像処理装置。
  2. 前記画像が空を含むか否かを判定する空判定部をさらに有し、
    前記画像処理部は、
    前記空判定部が前記空を含むと判定した場合に、前記画像に対して前記第1の鮮鋭化処理を施す
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 画像の位置毎の奥行き情報を取得する取得部と、
    前記画像内に前記奥行き情報に基づき非一様に第1の鮮鋭化処理を施すか、前記画像内に一様に第2の鮮鋭化処理を施すかを、前記画像が所定の領域を含むか否かに応じて切り替える画像処理部と、
    前記画像が空を含むか否かを判定する空判定部と、
    前記画像が奥行きが連続して変化する領域と、奥行きが固定している領域との境界線を含むか否かを判定する境界判定部
    を有し、
    前記画像処理部は、
    前記空判定部が前記空を含むと判定し、且つ、前記境界判定部が前記境界線を含むと判定した場合に、前記画像に対して前記第1の鮮鋭化処理を施す
    ことを特徴とする画像処理装置。
  4. 前記空判定部は、
    前記画像中の位置毎に空である信頼度を算出する信頼度算出部を備え、
    前記取得部は、
    前記信頼度算出部で算出した前記信頼度に基づき前記奥行き情報を生成する
    ことを特徴とする請求項2または請求項3に記載の画像処理装置。
  5. 前記境界判定部は、
    前記境界線の位置を算出する位置算出部を備え、
    前記取得部は、
    前記信頼度算出部で算出した前記信頼度と、前記位置算出部で算出した前記境界線の位置とに基づき前記奥行き情報を生成する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記取得部は、
    前記境界線より上部を示す位置の前記奥行き情報を示す値を、基準値を基準として、前記信頼度が高いほど奥行きが遠いことを示す値へ近付けた値とする
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記取得部は、
    前記画像中の位置毎の前記奥行き情報を示す値を、前記信頼度が低いほど奥行きが近いことを示す値へ近付けた値とする
    ことを特徴とする請求項5または請求項6に記載の画像処理装置。
  8. 前記取得部は、
    前記基準値を、前記境界線の位置と前記信頼度とから求める
    ことを特徴とする請求項6に記載の画像処理装置。
  9. 前記空判定部は、
    前記画像中の位置毎の前記信頼度に対してクロージング処理を施すことにより、該信頼度を補正する
    ことを特徴とする請求項4乃至請求項8の何れか1項に記載の画像処理装置。
  10. 前記空判定部は、
    前記画像中の、明るさの変化の方向と、色の青さの変化の方向とが一致しない位置に対して前記補正を行う
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記画像処理部は、
    前記第1の鮮鋭化処理の度合を、前記奥行き情報が示す奥行きが近いほど高くする
    ことを特徴とする請求項1乃至請求項10の何れか1項に記載の画像処理装置。
  12. 前記画像処理部は、
    前記画像に対して拡大処理をさらに行う
    ことを特徴とする請求項1乃至請求項11の何れか1項に記載の画像処理装置。
  13. 画像の位置毎の奥行き情報を取得する取得ステップと、
    前記画像が所定の領域を含むか否かに応じて、前記画像内に前記奥行き情報に基づき非一様に第1の鮮鋭化処理を施すか、前記画像内に前記奥行き情報に関わらず一様に第2の鮮鋭化処理を施すかを切り替える画像処理ステップと
    を有する
    ことを特徴とする画像処理方法。
  14. 画像の位置毎の奥行き情報を取得する取得ステップと、
    前記画像が所定の領域を含むか否かに応じて、前記画像内に前記奥行き情報に基づき非一様に第1の鮮鋭化処理を施すか、前記画像内に前記奥行き情報に関わらず一様に第2の鮮鋭化処理を施すかを切り替える画像処理ステップと
    をコンピュータに実行させるためのプログラム。
JP2012102940A 2012-04-27 2012-04-27 画像処理装置、画像処理方法およびプログラム Active JP5703255B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012102940A JP5703255B2 (ja) 2012-04-27 2012-04-27 画像処理装置、画像処理方法およびプログラム
US13/796,095 US9292732B2 (en) 2012-04-27 2013-03-12 Image processing apparatus, image processing method and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012102940A JP5703255B2 (ja) 2012-04-27 2012-04-27 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2013232064A JP2013232064A (ja) 2013-11-14
JP5703255B2 true JP5703255B2 (ja) 2015-04-15

Family

ID=49477337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012102940A Active JP5703255B2 (ja) 2012-04-27 2012-04-27 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US9292732B2 (ja)
JP (1) JP5703255B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10473461B2 (en) * 2013-04-01 2019-11-12 Panasonic Intellectual Property Management Co., Ltd. Motion-sensor device having multiple light sources
JP5999043B2 (ja) * 2013-07-26 2016-09-28 株式会社デンソー 車両周辺監視装置およびプログラム
US9305214B1 (en) * 2013-10-29 2016-04-05 The United States Of America, As Represented By The Secretary Of The Navy Systems and methods for real-time horizon detection in images
CN105225217B (zh) * 2014-06-23 2018-04-10 株式会社理光 基于深度的背景模型更新方法和系统
JP2016151955A (ja) * 2015-02-18 2016-08-22 キヤノン株式会社 画像処理装置、撮像装置、距離計測装置、および画像処理方法
JP7240115B2 (ja) * 2018-08-31 2023-03-15 キヤノン株式会社 情報処理装置及びその方法及びコンピュータプログラム
US20220230435A1 (en) * 2019-06-21 2022-07-21 Sony Interactive Entertainment Inc. Imaging data generation apparatus, imaging data generation method, and program
KR102488813B1 (ko) * 2019-12-13 2023-01-16 재단법인대구경북과학기술원 엣지 이미지를 이용한 시차맵 생성 방법 및 장치

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06169395A (ja) * 1992-11-27 1994-06-14 Sharp Corp 画像形成装置
US5581370A (en) * 1995-06-05 1996-12-03 Xerox Corporation Image-dependent automatic area of interest enhancement
US6411305B1 (en) * 1999-05-07 2002-06-25 Picsurf, Inc. Image magnification and selective image sharpening system and method
US7010172B1 (en) * 1999-07-27 2006-03-07 Fuji Photo Film Co., Ltd. Image acquiring method, image processing method, and image transforming method
US6504951B1 (en) * 1999-11-29 2003-01-07 Eastman Kodak Company Method for detecting sky in images
US6748119B1 (en) * 2000-11-02 2004-06-08 Xerox Corporation Systems and methods for interactively using and training an automatic image processing technique
BR0208591A (pt) * 2001-03-30 2004-03-30 Kodak Polychrome Graphics Co Método para avivamento de uma imagem, sistema para executar o mesmo, e, meio legìvel por computador
JP4138345B2 (ja) * 2002-03-22 2008-08-27 セイコーエプソン株式会社 画像処理装置および画像出力装置
FI115942B (fi) * 2002-10-14 2005-08-15 Nokia Corp Menetelmä kuvien interpoloimiseksi ja terävöittämiseksi
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7668387B2 (en) * 2005-06-20 2010-02-23 Intel Corporation Selective local transient improvement and peaking for video sharpness enhancement
EP1840821A1 (en) * 2006-03-27 2007-10-03 Sony Deutschland Gmbh Method for sharpness enhanging an image
US7724980B1 (en) * 2006-07-24 2010-05-25 Adobe Systems Incorporated System and method for selective sharpening of images
US20080159644A1 (en) * 2006-12-28 2008-07-03 Kelly Sean C Condition dependent sharpening in an imaging device
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
JP5243833B2 (ja) * 2008-04-04 2013-07-24 株式会社日立製作所 画像信号処理回路、画像表示装置、および画像信号処理方法
US8059911B2 (en) * 2008-09-30 2011-11-15 Himax Technologies Limited Depth-based image enhancement
CN102257827B (zh) * 2008-12-19 2014-10-01 皇家飞利浦电子股份有限公司 从图像创建深度图
JP5230456B2 (ja) * 2009-01-09 2013-07-10 キヤノン株式会社 画像処理装置および画像処理方法
US8885967B2 (en) * 2009-01-19 2014-11-11 Csr Technology Inc. Method and apparatus for content adaptive sharpness enhancement
CN101930533B (zh) * 2009-06-19 2013-11-13 株式会社理光 在图像采集设备中进行天空检测的装置和方法
JP2011066540A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 映像処理装置及び映像処理方法
JP5197683B2 (ja) * 2010-06-30 2013-05-15 株式会社東芝 奥行き信号生成装置及び方法
JP5422538B2 (ja) * 2010-11-09 2014-02-19 株式会社東芝 画像処理装置、表示装置、方法およびそのプログラム
JP5887515B2 (ja) * 2010-11-10 2016-03-16 パナソニックIpマネジメント株式会社 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置
US8625904B2 (en) * 2011-08-30 2014-01-07 Intellectual Ventures Fund 83 Llc Detecting recurring themes in consumer image collections
US8750566B2 (en) * 2012-02-23 2014-06-10 General Electric Company Apparatus and method for spatially relating views of sky images acquired at spaced apart locations
TWI493503B (zh) * 2012-03-05 2015-07-21 Altek Corp 影像銳利化處理裝置及影像銳利化處理方法
WO2013145554A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2013232064A (ja) 2013-11-14
US9292732B2 (en) 2016-03-22
US20130287292A1 (en) 2013-10-31

Similar Documents

Publication Publication Date Title
JP5703255B2 (ja) 画像処理装置、画像処理方法およびプログラム
TWI524734B (zh) 產生深度圖的方法及裝置
US10026160B2 (en) Systems and techniques for automatic image haze removal across multiple video frames
US9407814B2 (en) Approach for camera control
JP2020536457A (ja) 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体
JP6355346B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
KR102567860B1 (ko) 개선된 역 톤 매핑 방법 및 대응하는 디바이스
JP6818463B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2011060579A1 (en) Method for generating depth maps from monocular images and systems using the same
KR102049080B1 (ko) 영상 처리 장치 및 방법
KR20110124965A (ko) 아웃 포커싱 촬영에서 빛망울 효과를 생성하기 위한 장치 및 방법
JP6039657B2 (ja) 3dコンテンツをリターゲティングするための方法およびデバイス
CN109214996B (zh) 一种图像处理方法及装置
JP2014522596A5 (ja)
JP6904842B2 (ja) 画像処理装置、画像処理方法
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
JP5203159B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP4742068B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP4996554B2 (ja) 画像高画質化装置、方法およびプログラム
JP4708866B2 (ja) ルックアップテーブル作成装置および方法,ならびにルックアップテーブル作成プログラム
JP5349671B1 (ja) 画像処理装置、画像表示装置および方法
JP2008147714A (ja) 画像処理装置およびその方法
TWI474282B (zh) 深度相關的影像加強
JP2015118611A (ja) 画像処理装置、画像処理方法およびプログラム
JP7012457B2 (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150223

R151 Written notification of patent or utility model registration

Ref document number: 5703255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250