JP5711634B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP5711634B2
JP5711634B2 JP2011207822A JP2011207822A JP5711634B2 JP 5711634 B2 JP5711634 B2 JP 5711634B2 JP 2011207822 A JP2011207822 A JP 2011207822A JP 2011207822 A JP2011207822 A JP 2011207822A JP 5711634 B2 JP5711634 B2 JP 5711634B2
Authority
JP
Japan
Prior art keywords
component
image
value
image processing
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011207822A
Other languages
English (en)
Other versions
JP2013070266A (ja
Inventor
利幸 小野
利幸 小野
安則 田口
安則 田口
関根 真弘
真弘 関根
松本 信幸
信幸 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011207822A priority Critical patent/JP5711634B2/ja
Priority to US13/419,811 priority patent/US20130076733A1/en
Publication of JP2013070266A publication Critical patent/JP2013070266A/ja
Application granted granted Critical
Publication of JP5711634B2 publication Critical patent/JP5711634B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法および画像処理プログラムに関する。
カメラ等の撮像機器から被写体までの距離が分かっている場合、距離に応じた両眼視差をずらした2枚の画像を作成し、それぞれ右目と左目で観測することで画像を立体的に見ることができる。しかしながら、本システムを実現するためには、例えば、右目用と左目用の映像を空間的または時間的に分割して表示するディスプレイが必要になる。また、ユーザは眼鏡をかける必要があるなど構成が複雑になる。そこで、映像表示を2次元のままで立体感の増した映像を表示することができれば、ユーザの利益も大きい。
被写体の陰影を強調することで凹凸感が増し、画像の立体感が増す効果がある。ここで、凹凸感とは、被写体表面の凹凸の表現力である。陰影を強調する手法として、被写体表面の凹凸感を表すグラデーションを強調する手法が知られている。この手法では、画像の勾配を計算し、勾配強度の小さい成分を強調している。
しかしながら、この手法では、全画面一様に陰影が強調されるため、例えば、距離の遠い背景の凹凸感も増す。凹凸感の増した被写体は処理前よりも距離が近く知覚されるため、前景に被写体が存在した場合、前景と背景の距離が近く知覚され、結果的に奥行感の低い平面的な構図の画像となる問題があった。ここで、奥行感とは、被写体間の奥行方向の距離の表現力である。
宮岡伸一郎:「画像の勾配空間フィルタリング」、電子情報通信学会技術研究報告、Vol.109、No.182、pp.143−150、2009年8月
発明が解決しようとする課題は、被写体間の奥行方向の距離の表現力が増した画像を生成する画像処理装置を提供することである。
実施形態の画像処理装置は、取得手段と領域取得手段と分離手段と処理手段と合成手段とを備える。取得手段は、入力画像中のオブジェクトの奥行値を取得する。領域取得手段は、オブジェクトの境界を取得する。分離手段は、入力画像を、オブジェクトのグラデーションを含む成分である第1成分と、この第1成分以外の成分である第2成分とに分離する。処理手段は、第1成分を奥行値に応じて変換した処理済成分を生成する。合成手段は、処理済成分と第2成分とを合成した合成成分を生成する。
第1の実施形態の画像処理装置を示すブロック図。 実施形態の画像処理装置のハードウェア構成を示す図。 実施形態の画像処理装置のフローチャート。 実施形態の分離部を示すブロック図。 実施形態の分離部のフローチャート。 実施形態のオブジェクト境界座標の一例を示す図。 実施形態の画像の領域を示す図。 実施形態の骨格成分画像と分離成分画像の一例を示す図。 骨格成分画像と分離成分画像の一例を示す図。 実施形態の骨格成分画像と分離成分画像の一例を示す図。 実施形態の骨格成分画像と分離成分画像の一例を示す図。 変形例1の画像処理装置を示すブロック図。 第2の実施形態の画像処理装置を示すブロック図。
以下、本発明の実施形態について図面を参照しながら説明する。
(第1の実施形態)
本実施形態の画像処理装置は、入力画像を処理して立体感の増した画像を求める装置である。例えば、本画像処理装置が出力する画像をテレビ受像機に表示することにより、立体感の増した画像をユーザに提供することができる。
図1は、第1の実施形態にかかる画像処理装置を示すブロック図である。本実施形態の画像処理装置は、入力画像中の被写体の奥行値を取得する取得部101と、入力画像中の被写体から一又は複数のオブジェクトの境界を取得する領域取得部102と、入力画像をオブジェクトのグラデーションを含む成分である第1成分と、この第1成分以外の成分である第2成分とに分離する分離部103と、第1成分を奥行値に応じて変換した処理済成分を生成する処理部104と、処理済成分と第2成分とを合成した合成成分を生成する合成部105と、を備える。
入力画像は、カメラ等の撮像機器で被写体を撮像することで取得できる。オブジェクトは、入力画像中の被写体において、例えば照明が均等に当たったときに同じ輝度と色を持つ領域である。入力画像中の被写体は、一又は複数のオブジェクトを持つ。
ここで、本実施形態の画像処理装置は、被写体の奥行値に応じてグラデーションを含む第1成分を強調する。具他的には、手前にある(奥行値が大きな)被写体ほど第1成分の強調度合いを高めることにより、被写体間における奥行方向の距離の表現力が増した画像を生成する。
また、本実施形態の画像処理装置は、処理部104で第1成分が強調された座標において、入力画像のグラデーション以外の成分と合成成分のグラデーション以外の成分とが同じ値になるように画像を生成する。ここで、グラデーション以外の成分とは、被写体表面の凹凸感以外を表す成分であり、入力画像中の被写体の明るさを表す。本実施形態の画像処理装置は、凹凸感を表すグラデーションが強調された座標において、グラデーション以外の成分の変動を抑えることにより、画像の一部のみが明るくなるなど不自然な画像が生成されることを防止する。
(ハードウェア構成)
本実施形態の画像処理装置は、図2に示すような通常のコンピュータを利用したハードウェアで構成されており、装置全体を制御するCPU(Central Processing Unit)等の制御部201と、各種データや各種プログラムを記憶するROM(Read Only Memory)やRAM(Random Access Memory)等の記憶部202と、各種データや各種プログラムを記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の外部記憶部203と、ユーザの指示入力を受け付けるキーボードやマウスなどの操作部204と、外部装置との通信を制御する通信部205と、画像を撮像するカメラ206と、画像を表示するディスプレイ207と、これらを接続するバス208を備えている。
このようなハードウェア構成において、制御部201がROM等の記憶部202や外部記憶部203に記憶された各種プログラムを実行することにより以下に説明する機能が実現される。
(フローチャート)
図3のフローチャートを利用して、本実施形態にかかる画像処理装置の処理を説明する。
まず、ステップS301では、取得部101は、入力画像中の被写体の奥行値Rを取得する。ここで、奥行値とは、例えばカメラ206の所定の視点から被写体までの距離に対応する値のことであり、入力画像の画素毎に取得される。奥行値は、距離センサを用いて直接取得することができる。また、2つの視点から撮像された画像の組であるステレオ画像を用いて、ステレオ画像間の位置ずれ量に応じて奥行値を取得することもできる。特に、立体映像コンテンツに含まれる右目用画像と左目用画像を用いて奥行値を取得することができる。また、1枚の画像から、画像のぼやけ度合やコントラストの情報を用いて奥行値を推定してもよい。
本実施形態では、座標(x,y)における奥行値R(x,y)は0から1の値をとり、値が大きいほど手前を示すものとする。なお、奥行値の範囲は一例であり、値が小さいほど手前を示す奥行値を用いてもよい。
次に、ステップS302では、領域取得部102は、入力画像をオブジェクト毎に分割してオブジェクトの境界の座標(オブジェクト境界座標)を取得する。ここで、オブジェクトとは、被写体において、照明が均等に当たったときに同じ輝度と色を持つ領域を指すものとする。実際の入力画像では、照明の当たり方などの影響により、各オブジェクトの領域内において異なる輝度や色になる。本実施形態では、隣接するオブジェクトの境界において入力画像の画素値が十分異なるものと仮定して、画素値の勾配強度の大きい座標をオブジェクト境界座標として取得する。
まず、入力画像の勾配強度を座標毎に計算する。入力画像をIinとしたとき、勾配強度Ginを以下の式で算出する。
Figure 0005711634
ただし、(x,y)は、入力画像の座標を示すインデックスであり、例えば、Iin(x,y)は、Iinの座標(x,y)における画素値を示す。なお、カラー画像が入力される場合は、例えばYUVのうちY成分(明度)を画素値として処理し、UV成分はY成分に応じて処理する。
次に、座標毎に勾配強度をある閾値で判定し、閾値より大きい勾配強度を持つ座標をオブジェクト境界座標として取得する。本実施形態では、オブジェクト境界座標はオブジェクト境界座標マップMの形式で持つものとし、M(x,y)が1ならばオブジェクト境界座標、0ならばオブジェクト境界座標ではないものとする。
なお、オブジェクトの考え方については上述したものに限らない。例えば、実世界における物ひとつずつをオブジェクトとしてもよい。また、各オブジェクトの領域をミーンシフト法などのクラスタリング法により生成し、その境界の座標をオブジェクト境界座標としてもよい。
次に、ステップS303では、分離部103は、入力画像を骨格成分画像と分離成分画像とに分離する。ここで、骨格成分画像には、エッジなどの勾配が強い部分が含まれる。一方、分離勾配画像には、エッジを除いたグラデーションなどの勾配が弱い部分が含まれる。すなわち、分離部103により、入力画像が、グラデーションを含む成分である分離勾配画像(第1成分)と、第1成分以外の成分である骨格成分画像(第2成分)とに分離される。
分離部103の動作を、図4および図5を参照しながら説明する。図4は、分離部103の内部構成を示すブロックである。分離部103は、入力画像とオブジェクト境界座標マップMから骨格勾配成分を生成する算出部401と、骨格勾配成分から骨格成分画像を生成する生成部402と、入力画像と骨格成分画像から分離成分画像を生成する減算部403を備えている。
図5は、分離部103の動作を表すフローチャートである。ステップS501では、算出部401は、オブジェクト境界座標マップMを用いて、骨格成分画像の勾配成分を示す骨格勾配成分を生成する。まず、水平方向の骨格勾配成分ghorを計算する。注目する座標(a,b)において、M(a,b)が0のときはghor(a,b)=0とする。M(a,b)が1のときは、水平方向に(a,b)より小さい座標のうちM(x,y)が1となる最も近い座標(c,d)を求め、(2)式で表される座標間の画素値の差によりghorを計算する。
Figure 0005711634
(a,b)と(c,d)の関係を、図6を用いて説明する。この図は、オブジェクト境界座標マップMの例である。図中で斜線のある枠は、オブジェクト境界座標(M=1)を示している。座標(a,b)から見て、水平方向にはオブジェクト境界座標が複数存在するが、そのうち、(a,b)よりも水平座標が小さく(左に位置し)、かつ、最も近い座標を(c,d)として選択する。
同様にして、垂直方向の骨格勾配成分gverを計算する。つまり、注目する座標(a,b)において、M(a,b)が0のときgver(a,b)=0とする。M(a,b)が1のときは、垂直方向に(a,b)より小さい座標のうち、M(x,y)が1となる最も近い座標(e,f)を求め、その座標間の入力画像の画素値の差((3)式)によりgverを計算する。
Figure 0005711634
次に、ステップS502では、生成部402は、水平方向の骨格勾配成分ghorおよび垂直方向の骨格勾配成分gverを勾配として持つ骨格成分画像Istを生成する。所定の勾配を持つ画像を生成する方法は、ポアソン方程式に問題を帰着して解く方法が広く知られている(例えば、R.Fattalら、「Gradient domain high dynamic range compression」、SIGGRAPH議事録、pp.249−256、2002年)。
生成部402は、図7に示す画像の端周囲1画素の領域Ωでは入力画像の画素値を保持するという境界条件を表す以下の式
Figure 0005711634
を満たしつつ、勾配が骨格勾配成分gst=(ghor,gver)に近くなる画像(骨格成分画像)Istを以下の式により算出する。
Figure 0005711634
ただし、∇I=(∂I/∂x、∂I/∂y)である。(5)式は式変形により、以下の(6)式のポアソン方程式に帰着され、Jacobi法、Gauss−Seidel法、およびSOR法等により解くことができる。
Figure 0005711634
また、骨格成分画像Istは、サイン変換した係数を処理することでも解くことができる。例えば、Jacobi法を用いて解く場合は、以下の式を、領域Ωを除く内部の領域(x,y)∈Γについて反復する。
Figure 0005711634
ただし、Ist は反復nにおける骨格成分画像であり、(divgst)(x,y)は、以下の式で計算する。
Figure 0005711634
nが事前に定められた数に到達するか、反復によるIst の変化が十分小さくなるまで反復を繰り返した後のIst を、最終的な骨格成分画像Istとする。
次に、ステップS503では、減算部203は、入力画像から骨格成分画像Istを減算して分離成分画像Igrを生成する。
図8は、入力画像から分離した骨格成分画像と分離成分画像の一例を示す図である。この図は、入力画像のある断面における画素値を1次元で示したグラフである。入力画像の画素値が801で示すような形状の場合、分離部103で生成される骨格成分画像および分離成分画像は、それぞれ802および803のような形状となる。ここで、A、B、C、Dはオブジェクト境界座標であり、A−B、B−C、C−Dがそれぞれ1つのオブジェクトを表している。
図8に示すように、骨格成分画像は、主に入力画像のエッジ部において画素値が変動する成分である。分離成分画像は、主にグラデーションや微小なテクスチャを含み、陰影を表現する成分である。ここで、本実施形態の分離部103で生成される分離成分画像は、最も近い2つのオブジェクト境界座標のペアにおいて、少なくとも1つの画素値が0になる。つまり、A−BではA、B−CではB、C−DではCにおける分離成分画像の画素値が0になっている。
このように、オブジェクトの境界における少なくとも1つの座標において、分離成分画像が0になるように分離されていることが重要である。この分離成分画像を用いれば、後述の処理部104における強調により、グラデーション以外の成分が変動することを抑えることができる。分離成分画像が0になる座標では処理済成分も0になる。つまり、この座標では、入力画像のグラデーション以外の成分と合成成分のグラデーション以外の成分とが同じ値になる。これにより、画像の一部のみが明るくなるなど不自然な画像が生成されることを防止する。
例えば、図9のように入力画像が分離された場合、処理部104で分離成分画像を強調すると、グラデーション以外の不要成分903も強調されてしまう。結果として、合成成分のグラデーション以外の成分が変動することになり、画像の一部のみが明るくなるなど不自然な画像が生成される。
入力画像を分離する方法は上述のものに限られない。例えば、図10に示すように、骨格成分画像のオブジェクト境界座標における画素値を入力画像の画素値と等しくし、オブジェクト境界座標ではない座標における画素値をオブジェクト境界座標の画素値の補間により生成することもできる。
また、図11のように、各オブジェクトの領域において、分離成分画像の平均値が0になるように入力画像を分離することができる。例えば、各オブジェクトの領域における画素値の平均値を計算し、その値を各オブジェクトの領域における骨格成分画像とし、入力画像からこの骨格画像成分を減じたものを分離成分画像とする。
図3のフローチャートに戻って説明を続ける。ステップS304では、処理部104は、奥行値に応じて分離成分画像を強調して処理済成分を生成する。本実施形態では、手前に存在する被写体ほど(奥行値Rの大きな被写体ほど)強調度合いを高めることにより、奥に存在する被写体と手前に存在する被写体の奥行方向の距離が広がって知覚される画像を生成する。分離成分画像(第1成分)の強調により凹凸感の増した被写体はより手前側に知覚される。
処理部104は、分離成分画像Igrと奥行値Rを用いて、以下の式により処理済成分I^grを計算する。なお、数式中のハット記号^の付された文字Iを、本文中ではI^と表記する。
Figure 0005711634
ここで、α(r)は奥行値が手前であるほど大きな値をとる処理係数であり、正の定数βを用いて以下の式で表すことができる。
Figure 0005711634
また、正の定数ωを用いて、以下の式のように非線形の形でα(r)を表してもよい。
Figure 0005711634
以上のように、処理係数αは任意の正数を値としてとることができ、処理係数αが1より大きければ分離成分画像は強調され、処理済成分の陰影が強くなる。また、処理係数αが1より小さければ分離成分画像は抑制され、処理済成分の陰影は弱くなる。さらに、分離成分画像の強調は、処理係数αの乗算に限らない。例えば、以下の式のように加算により絶対値を操作してもよい。
Figure 0005711634
ここで、sign(i)はiの正負の符号である。また、奥行値Rに応じて値を大きく変換するテーブルを予め作成しておき、このテーブルに応じて分離成分画像の絶対値を変換してもよい。
ここでは、奥行値の取りうる値のうち最も手前を表す値を基準値とし、基準値と奥行値との差分が小さいほど分離成分画像を強調する例を示したが、基準値はこれに限られない。中間の奥行値または最も奥の奥行値を基準値とし、この基準値に近いほど分離成分画像を強調してもよい。例えば、ある中間の奥行値をrbaseとすると、奥行値R(x,y)がrbaseに近いほど大きくなるαを(9)式で用いればよい。αは、例えばωを正の定数として以下の式で計算することができる。
Figure 0005711634
これにより、ある奥行値rbaseにのみ照明が強く当たっている場合などに、この位置にある被写体を強調することができる。
図3のフローチャートに戻って説明を続ける。最後に、ステップS305では、合成部105は、骨格成分画像Istと処理済成分I^grとを合成して合成成分Icombを生成する。合成部105は、例えば以下の式により合成成分Icombを生成する。
Figure 0005711634
以上の処理により生成された合成成分Icombが、本実施形態にかかる画像処理装置が出力する画像になる。
このように、本実施形態の画像処理装置は、手前にある被写体ほど分離成分画像(第1成分)の強調度合いを高めた合成成分を生成する。これにより、被写体間における奥行方向の距離の表現力が増した画像を生成することができる。
また、本実施形態の画像処理装置は、分離成分画像(第1成分)が強調された座標において、入力画像のグラデーション以外の成分と合成成分のグラデーション以外の成分とが同じ値になるように合成成分を生成する。これにより、画像の一部のみが明るくなるなど不自然な画像が生成されることを防止することができる。
(変形例1)
本実施形態にかかる方法を用いれば、分離成分と処理済成分の明るさの変化を小さくすることができるが、処理係数α(r)の変化が空間的に大きいときには、処理前後において明るさの変化が大きくなる場合がある。そこで、各オブジェクトの領域において、処理済成分の平均値と分離成分画像の平均値とが一致するように、入力画像から分離成分画像を分離してもよい。
例えば、1つのオブジェクトの領域における骨格成分画像の画素値を定数値Jとし、分離成分画像をIin−Jとする。このとき、処理済成分はα(R(x,y))×(Iin−J)となるから、Jの値を(15)式を満たすように求めればよい。ただし、積分は1つの領域内部の座標で行う。例えば、Jの値を離散的な値で変化させることができる。
Figure 0005711634
図12を用いて、本変形例を実現する方法を説明する。本変形例の画像処理装置は、分離部1203が入力画像・オブジェクト境界座標だけでなく奥行値も入力している点が第1の実施形態と異なる。分離部1203は、まず、処理部104と同様な方法により処理係数αを計算する。そして、1つのオブジェクトの領域で(15)式を満たすJを算出する。そして、同じオブジェクトの領域について、骨格成分画像の画素値をJとして出力し、分離成分画像をIin−Jとして出力する。その他のオブジェクトについても同様な処理を行う。
このように、各オブジェクトの領域において、分離成分画像の平均値と処理済成分の平均値とを一致させることにより、入力画像と合成成分との間においてグラデーション以外の成分が大きく変動することを防止する。これにより、画像の一部のみが明るくなるなど不自然な画像が生成されることを防ぐことができる。
(第2の実施形態)
図13は、第2の実施形態にかかる画像処理装置の構成を示すブロック図である。本実施形態の画像処理装置は、分離部1303および処理部1304の機能が第1の実施形態と異なる。その他の機能は、第1の実施形態にかかる画像処理装置と同様であるので説明を省略する。
分離部1303は、入力画像を骨格成分画像と分離成分画像に分離する。本実施形態では、入力画像を分離する際、骨格成分画像と分離成分画像の間に制約は課さない。例えば、図9のように、分離成分画像がグラデーション以外の不要成分を含むように入力画像を分離してもよい。
処理部1304は、オブジェクト境界座標マップMおよび奥行値を用いて、分離成分画像を強調した処理済成分を生成する。このとき、処理部1304は、入力画像のグラデーション以外の成分と合成部105で生成される合成成分のグラデーション以外の成分が大きく変動しないように処理済成分を生成する。具体的には、各オブジェクトの領域において、グラデーション以外の成分の平均値が変動しないように処理済成分を生成する。
まず、処理部1304は、分離成分画像Igrと奥行値Rを用いて、以下の式により仮処理済成分I grを計算する。なお、数式中の記号−の付された文字Iを、本文中ではIと表記する。
Figure 0005711634
ここで、αは第1の実施形態と同じものを用いることができる。
次に、処理部1304は、1つのオブジェクトの領域について、分離成分画像Igrの平均値Iaveおよび仮処理済成分の平均値I aveを算出する。そして、同じ領域内の処理済成分を次の式で算出する。
Figure 0005711634
すべてのオブジェクトの領域について、(17)式により処理済成分を算出する。
処理部1304は、各オブジェクトについて、そのオブジェクト境界座標のうち1つの画素値が変化しないように処理済成分を生成してもよい。例えば、分離成分画像の絶対値が最小となる座標において、処理前後の画素値が変化しないように処理済成分を生成することができる。まず、処理部1304は、1つのオブジェクトの領域を選択する。次に、オブジェクト境界座標の中で分離成分画像の絶対値が最小となる座標を探索する。その座標を(g,h)とする。次に、(g,h)の分離成分画像の画素値Igr(g,h)を基準にして、選択したオブジェクトのオブジェクト境界座標の処理済成分を次式により計算する。
Figure 0005711634
すべてのオブジェクトの領域について、(18)式により、処理済成分を算出する。
このようにして生成した処理済成分を用いて、合成部105は、合成成分を生成し第2の実施形態にかかる画像処理装置の出力とする。
本実施形態の画像処理装置は、分離成分画像(第1成分)が強調された座標において、入力画像のグラデーション以外の成分と合成成分のグラデーション以外の成分とが大きく変動することを防止する。これにより、画像の一部のみが明るくなるなど不自然な画像が生成されることを防ぐことができる。
(変形例2)
第1および第2の実施形態では、オブジェクト毎の平均的な画素値の変化が小さくなるように処理する方法を示したが、これ以外にも、ディスプレイに表示したときの放射輝度のオブジェクト毎の平均値の変化が小さくなるように処理してもよい。
また、第1および第2の実施形態では、2次元画像の処理について説明したが、右目画像と左目画像の2視差からなる立体画像や、3視差以上の視差をもつ立体画像についても処理することが可能である。これにより、メガネ式や裸眼式の立体ディスプレイに立体画像を表示する場合においても、さらに立体感のある画像を表示することが可能となる。
例えば、視差画像のそれぞれについて独立に、第1および第2の実施形態に示した方法で処理をすることができる。また、視差画像の処理の間で相関を持たせることで、処理後の画像の画質が向上する。例えば、領域取得部102は、視差画像間の位置合わせを行い、対応する座標においては同一のオブジェクトの領域になるようオブジェクト境界座標を算出することができる。これにより、オブジェクトを分割する精度が向上する。また、分離成分画像や処理済成分を視差画像の間で共通にすることで、出力画像の視差画像間における変化を抑制することができる。
(効果)
以上述べた少なくとも一つの実施形態の画像処理装置は、手前にある被写体ほど分離成分画像(第1成分)の強調度合いを高めた合成成分を生成する。これにより、被写体間における奥行方向の距離の表現力が増した画像を生成することができる。
また、少なくとも一つの実施形態の画像処理装置は、入力画像のグラデーション以外の成分と合成成分のグラデーション以外の成分とが大きく変動することを防止する。これにより、画像の一部のみが明るくなるなど不自然な画像が生成されることを防ぐことができる。
なお、以上説明した本実施形態における一部機能もしくは全ての機能は、ソフトウェア処理により実現可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
101 取得部
102 領域取得部
103、1203、1303 分離部
104、1304 処理部
105 合成部
201 制御部
202 記憶部
203 外部記憶部
204 操作部
205 通信部
206 カメラ
207 ディスプレイ
208 バス
401 算出部
402 生成部
403 減算部
801 入力画像
802、901、1001、1101 骨格成分画像
803、902、1002、1102 分離成分画像
903 不要成分

Claims (10)

  1. 入力画像中のオブジェクトの奥行値を取得する取得手段と、
    前記オブジェクトの境界を取得する領域取得手段と、
    前記入力画像を、前記オブジェクトのグラデーションを含む成分である第1成分と、この第1成分以外の成分である第2成分とに分離する分離手段と、
    前記第1成分を前記奥行値に応じた強さで強調した処理済成分を生成する処理手段と、
    前記処理済成分と前記第2成分とを合成した合成成分を生成する合成手段とを備え
    前記処理手段は、予め定められた基準値と前記奥行値との差分が小さいほど、前記第1成分を強調する量を大きくすることを特徴とする画像処理装置。
  2. 前記処理手段で前記第1成分が変換された座標において、前記入力画像のグラデーション以外の成分と前記合成成分のグラデーション以外の成分とが同じ値になるように前記合成成分を生成する請求項1記載の画像処理装置。
  3. 前記分離手段が、前記オブジェクトの境界における少なくとも1つの座標において、前記第1成分が0になるように前記入力画像を前記第1成分と前記第2成分とに分離する請求項2記載の画像処理装置。
  4. 前記オブジェクトの領域において、前記第1成分の平均値と前記処理済成分の平均値とが同じ値になるように前記処理済成分を生成する請求項1記載の画像処理装置。
  5. 前記分離手段が、前記オブジェクトの領域において、前記第1成分の平均値が0になるように前記入力画像を前記第1成分と前記第2成分とに分離する請求項1記載の画像処理装置。
  6. 前記基準値は、前記奥行値の取りうる値のうち最も手前を表す値であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 入力画像中のオブジェクトの奥行値を取得するステップと、
    前記オブジェクトの境界を取得するステップと、
    前記入力画像を、前記オブジェクトのグラデーションを含む成分である第1成分と、この第1成分以外の成分である第2成分とに分離するステップと、
    前記第1成分を前記奥行値に応じた強さで強調した処理済成分を生成するステップと、
    前記処理済成分と前記第2成分とを合成した合成成分を生成するステップとを備え
    前記処理済成分は、予め定められた基準値と前記奥行値との差分が小さいほど、前記第1成分が強く強調されることを特徴とする画像処理方法。
  8. 前記基準値は、前記奥行値の取りうる値のうち最も手前を表す値であることを特徴とする請求項7に記載の画像処理方法。
  9. 画像処理装置に、
    入力画像中のオブジェクトの奥行値を取得する機能と、
    前記オブジェクトの境界を取得する機能と、
    前記入力画像を、前記オブジェクトのグラデーションを含む成分である第1成分と、この第1成分以外の成分である第2成分とに分離する機能と、
    前記第1成分を前記奥行値に応じた強さで強調した処理済成分を生成する機能と、
    前記処理済成分と前記第2成分とを合成した合成成分を生成する機能と、
    を実現させるための画像処理プログラムであって、
    前記処理済成分は、予め定められた基準値と前記奥行値との差分が小さいほど、前記第1成分が強く強調されることを特徴とする画像処理プログラム。
  10. 前記基準値は、前記奥行値の取りうる値のうち最も手前を表す値であることを特徴とする請求項9に記載の画像処理プログラム。
JP2011207822A 2011-09-22 2011-09-22 画像処理装置、画像処理方法および画像処理プログラム Expired - Fee Related JP5711634B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011207822A JP5711634B2 (ja) 2011-09-22 2011-09-22 画像処理装置、画像処理方法および画像処理プログラム
US13/419,811 US20130076733A1 (en) 2011-09-22 2012-03-14 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011207822A JP5711634B2 (ja) 2011-09-22 2011-09-22 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2013070266A JP2013070266A (ja) 2013-04-18
JP5711634B2 true JP5711634B2 (ja) 2015-05-07

Family

ID=47910788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011207822A Expired - Fee Related JP5711634B2 (ja) 2011-09-22 2011-09-22 画像処理装置、画像処理方法および画像処理プログラム

Country Status (2)

Country Link
US (1) US20130076733A1 (ja)
JP (1) JP5711634B2 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706633B2 (en) * 2004-04-21 2010-04-27 Siemens Corporation GPU-based image manipulation method for registration applications
US7936941B2 (en) * 2004-10-08 2011-05-03 Panasonic Corporation Apparatus for clearing an image and method thereof
JP5094219B2 (ja) * 2006-06-29 2012-12-12 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
KR101468267B1 (ko) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
KR101502362B1 (ko) * 2008-10-10 2015-03-13 삼성전자주식회사 영상처리 장치 및 방법
JP4963124B2 (ja) * 2009-03-02 2012-06-27 シャープ株式会社 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
US8610758B2 (en) * 2009-12-15 2013-12-17 Himax Technologies Limited Depth map generation for a video conversion system
US9398289B2 (en) * 2010-02-09 2016-07-19 Samsung Electronics Co., Ltd. Method and apparatus for converting an overlay area into a 3D image
US20130071008A1 (en) * 2011-09-15 2013-03-21 National Taiwan University Image conversion system using edge information

Also Published As

Publication number Publication date
US20130076733A1 (en) 2013-03-28
JP2013070266A (ja) 2013-04-18

Similar Documents

Publication Publication Date Title
CN102474644B (zh) 立体图像显示系统、视差转换装置、视差转换方法
JP5587894B2 (ja) 深さマップを生成するための方法及び装置
JP6147275B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP6370708B2 (ja) 例示的な類似画像と関連した例示的な近似奥行きマップを用いた、入力画像に対する奥行きマップの生成
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP4903240B2 (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
JP5673032B2 (ja) 画像処理装置、表示装置、画像処理方法及びプログラム
TWI531212B (zh) 呈現立體影像之系統及方法
JP2015156607A (ja) 画像処理装置、画像処理装置、及び電子機器
JP2012019513A (ja) 2d画像を3d画像に変換するための方法および装置
US20160180514A1 (en) Image processing method and electronic device thereof
JP5862635B2 (ja) 画像処理装置、立体データ生成方法、及びプログラム
KR101511315B1 (ko) 스테레오스코픽 컨텐츠를 위한 다이나믹 플로팅 윈도우 생성 방법 및 시스템
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
CN103514593B (zh) 图像处理方法及装置
JP5711634B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5254297B2 (ja) 画像処理装置
JP5545059B2 (ja) 動画像処理方法、動画像処理装置および動画像処理プログラム
JP5515864B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP2015103960A (ja) 画像奥行き指定方法、プログラム、および装置
JP2011119926A (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
JP5459231B2 (ja) 擬似立体画像生成装置、擬似立体画像生成プログラム及び擬似立体画像表示装置
Ryu et al. 47‐2: Monocular Depth Perception Enhancement Based on Joint Shading/Contrast Model and Motion Parallax (JSM)
TWI463434B (zh) 將2d影像形成3d影像之影像處理方法
Cheng et al. Efficient multiple virtual view generation based on reduced depth stereo image for advanced autostereoscopic displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150306

LAPS Cancellation because of no payment of annual fees