JP5132754B2 - 画像処理装置、方法およびそのプログラム - Google Patents
画像処理装置、方法およびそのプログラム Download PDFInfo
- Publication number
- JP5132754B2 JP5132754B2 JP2010252372A JP2010252372A JP5132754B2 JP 5132754 B2 JP5132754 B2 JP 5132754B2 JP 2010252372 A JP2010252372 A JP 2010252372A JP 2010252372 A JP2010252372 A JP 2010252372A JP 5132754 B2 JP5132754 B2 JP 5132754B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- image
- model
- image processing
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Description
本発明の実施の形態は、画像処理装置、方法およびプログラムに関する。
従来、2次元画像を3次元表示するために、2次元画像に対して奥行きの情報を付加する技術が存在する。この従来技術の一つでは、たとえば2次元画像の上部および下部の高周波成分の分布から、あらかじめ用意しておいた奥行きのモデルとの合成比率を算出し、この算出結果から画像全体の大まかな奥行きを求める。また、大まかな奥行きに2次元画像中のR信号を重畳することで、奥行きを補正することも考えられている。
以下の実施の形態では、2次元画像からより正確な奥行きを生成することが可能な画像処理装置、方法およびプログラムを開示する。
実施の形態による画像処理装置は、画像に含まれる物体を検出する検出部と、検出された前記物体の性質に応じて前記物体の奥行きの情報のベースとするデプスモデルを選択する選択部と、検出された前記物体の領域を前記画像から区分するセグメント部と、前記画像の奥行きを表現するデプスマップを生成するデプスマップ生成部とを備え、前記デプスマップ生成部は、前記画像中の検出された前記物体の位置に対応する前記デプスマップ上の位置に、前記デプスモデルを配し、配された前記デプスモデルの領域と前記物体の領域とを比較し、互いに重なり合わない位置に対して、補正後の奥行値を与える。
以下、例示する実施の形態にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。
<実施の形態1>
まず、実施の形態1にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。以降の説明では、以下の事項(1)〜(4)を前提とする。ただし、本開示は、これらの事項に限定されるものではない。
まず、実施の形態1にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。以降の説明では、以下の事項(1)〜(4)を前提とする。ただし、本開示は、これらの事項に限定されるものではない。
(1)画像の左上隅を原点とし、横方向(水平方向)をx軸、縦方向(垂直方向)をy軸とする。ただし、画像に対して設定される座標系は、これに限られるものではない。また、画像中の座標(x,y)の画素値をP(x,y)と表す。ここで画素値Pは、画素の明るさまたは色成分を表すものであればよい。このような画素値Pには、たとえば輝度、明度、特定の色チャンネルなどが該当する。
(2)デプスマップは、画像の奥行きを表現するデータである。このデプスマップは、マップの左上隅を原点とし、横方向(水平方向)をX軸、縦方向(垂直方向)をY軸とする。ただし、デプスマップに対して設定される座標系は、これに限られるものではない。また、デプスマップ中の座標(X,Y)での画素値をZ(X,Y)と表す。この画素値Zは、画素ごとの奥行きを示す情報(奥行き情報)である。たとえば画素値Zが大きいほど、その画素の奥行き(デプス)が大きい。
(3)画像中の座標とデプスマップ中の座標とは、1対1に対応する。本開示では、特に記述しない限り、画像のサイズとデプスマップのサイズとは等しい。また、画像の座標(x,y)とデプスマップの座標(X,Y)とは、互いに対応している。すなわち、x=X、y=Yが成立する。
(4)本開示において特に記述しない場合、画像の画素値Pを「画素値」と記述し、その値域を[0,255](0以上255以下)とする。さらに、デプスマップの画素値Zを「奥行値」と記述し、その値域を[0,255](0以上255以下)とする。
つぎに、本実施の形態1による画像処理装置1を、図面を用いて詳細に説明する。図1は、本実施の形態1による画像処理装置1の概略構成を示す。図1に示すように、画像処理装置1は、ベースデプス入力部11と、検出部12と、選択部13と、セグメント部14と、デプスマップ生成部15とを備える。また、画像処理装置1は、ベースデプス記憶部16と、デプスモデル記憶部17とを備えてもよい。
画像処理装置1には、2次元画像(以下、入力画像という)が入力される。入力画像の入力元には、あらゆる機器または媒体を適用することができる。たとえばハードディスクドライブ(HDD)やDVD−ROMやフラッシュメモリなどの記録媒体から画像データを入力できるとよい。また、ネットワークを介して接続された録画機やデジタルカメラやデジタルビデオカメラなどの外部装置から画像データを入力できるとよい。さらに、画像処理装置1には、無線または有線でテレビジョン放送を受信する受信機から画像データが入力されてもよい。
さらに、入力画像100の形式は2D画像でなくてもかまわない。例えば、サイドバイサイド形式やラインバイライン形式等といったステレオ画像でもよいし、多視点形式の画像を入力としてもよい。この場合、どれか1つの視点の画像を処理対象の画像としてあつかう。
ベースデプス入力部11は、入力画像と同サイズのマップ全体の画素に奥行値Zが設定されたベースデプスを入力する。ベースデプスとは、たとえば奥行きを持つ3次元の空間構造をデータ化したものである。ベースデプスに含まれる奥行き情報は、たとえば画素ごとに数値(奥行値Z)で表されている。このようなベースデプスは、入力画像に対するデプスマップを作成する際に奥行きの下地データとして用いることができる。ベースデプスは、たとえばベースデプス記憶部16に記憶されていてもよい。また、ベースデプス記憶部16は、たとえば1つ以上のパターンのベースデプスをテンプレートとしてあらかじめ記憶しているとよい。ベースデプス入力部11は、たとえば入力画像を解析することで、この入力画像に対して適したベースデプスのテンプレートを特定し、これをベースデプス記憶部16から取得する。
ベースデプスの特定は、たとえば入力画像から特定または推定された空間的構造に基づいて行うことができる。この特定方法では、たとえば入力画像における地面または床面の領域や空または天井の領域などから入力画像の空間的構造を特定または推定する。つぎに、この空間的構造に適したベースデプスをベースデプス記憶部16から特定する。ただし、この特定方法に限らず、種々の方法を用いてベースデプスを取得することが可能である。
ただし、これに限定されず、全体的に一様な奥行値Zのベースデプスを用いてもよい。この場合、設定する奥行値Zは、最も奥を示す奥行値Zや、後述する補正デプスマップ(図4(g)参照)内の画素の奥行値Zの最大値よりも大きいことを条件としてランダムに生成した奥行値Zなど、種々変形することができる。
検出部12は、入力画像内に存在する物体を検出する。なお、物体の検出では、物体の位置および領域(形状や大きさ等)のほかに、物体の種類などを検出してもよい。この物体の検出には、一般に知られている方法などを用いてよい。既存の検出方法には、たとえば物体検出用の識別器を用いて入力画像から物体を識別する方法などがある。ただし、これに限定されず、種々の検出方法を適用可能である。また、検出部12は、物体を複数の領域に区分した区分物体領域を検出してもよい。これには、たとえば物体をオブジェクト単位に区分するなどの方法が考えられる。
選択部13は、複数のデプスモデルの集合であるデプスモデル群から、検出部12で検出された物体(以下、検出物体という)に対応するデプスモデルを1つ選択する。なお、デプスモデルとは、物体の奥行き情報をあらかじめモデル化したものである。デプスモデルでは、たとえば人や動物や乗り物や建物や草木などの物体の一方向から見た立体的な形状が奥行きの情報で表されている。また、デプスモデル群には、たとえば様々な種類の物体についてのデプスモデルだけでなく、個々の物体についての様々な形状のデプスモデルが含まれているとよい。このデプスモデル群は、たとえばデプスモデル記憶部17に記憶されている。
セグメント部14は、検出物体の領域(以下、物体領域という)を入力画像から区分する。例えば、セグメント部14は、物体領域にフラグを立てることにより、物体領域を入力画像から区分してよい。デプスマップ生成部15は、ベースデプスとデプスモデルと物体領域とから、入力画像の奥行きの情報を示すデプスモデルを生成する。ここで、デプスマップ生成部15の一例を、図2に示す。
図2に示すように、デプスマップ生成部15は、デプスモデル補正部151と、デプスマップ合成部152とを含む。デプスモデル補正部151は、選択部13で選択されたデプスモデルを、セグメント部14で作成された物体領域に基づいて補正する。補正の詳細については、後述において触れる。また、以下では、補正後のデプスモデルを補正デプスモデルという。デプスマップ合成部152は、デプスモデル補正部151で生成された補正デプスモデルと、ベースデプス入力部11が入力したベースデプスとを合成することで、入力画像に付与する1つのデプスマップを生成する。
つぎに、画像処理装置1が実行する画像処理方法の流れを、以下に図面を用いて詳細に説明する。図3は、本実施の形態1による画像処理方法の概略流れを示すフローチャートである。図4は、入力画像に対するデプスマップを生成する際の流れを示す概略図である。図5は、図4(f)の拡大図である。なお、以下の説明では、図3のフローチャートに沿って説明し、適宜、図4および図5を参照する。また、以下の説明では、例として入力画像に1人の人物が含まれている場合を例に挙げる。ただし、人物に限らず、人や動物や乗り物や建物や草木など、デプスモデルの生成と画像からの物体領域の区分とが可能な全ての物体が対象となり得る。また、2次元画像内に複数の物体が存在する場合や、複数種類の物体が存在する場合に対しても、本実施の形態1と適用可能である。
図3に示すように、画像処理方法では、外部から画像処理装置1に2次元画像が入力される(ステップS101)。図4(a)に、入力画像の一例を示す。図4(a)に示すように、入力画像100には、一人の人物が物体101として写されているとする。この入力画像100は、たとえば検出部12とセグメント部14とに入力される。
また、ベースデプス入力部11は、入力画像100が入力されると、この入力画像100に付与するベースデプスを入力する(ステップS102)。入力されるベースデプスは、たとえば入力画像100の空領域や地面領域から推定される空間構造に最も近しい奥行き構造のベースデプスを、ベースデプス記憶部16に記憶された複数のテンプレートから選択されてもよい。ここで、入力されたベースデプス140の一例を、図4(h)に示す。なお、図4では、ハッチングが濃い程、奥行きが浅いことを示している。
また、検出部12は、入力画像100を解析することで、これに写されている物体の100の性質を表す物体情報を検出する。(ステップS103)。物体情報は、例えば、物体101の位置(たとえば基準とする座標)、領域(形状や大きさ等)および種類など(以下、物体情報という)を含む。入力画像100に複数の物体が含まれている場合は、それぞれの物体について物体情報を検出する。物体の検出には、一般的な方法を用いてよい。たとえば物体101が人物である場合、顔検出や人物検出などの方法を用いることができる。ここでは、図4(b)に示すように、顔検出により、入力画像100の顔の中心座標(XF,YF)と顔の幅WFとを物体情報として得た場合を例示する。物体101に対して検出された中心座標(XF,YF)は、物体101の基準座標として扱われる。なお、入力画像100中に物体が複数ある場合、検出された物体ごとに物体情報を生成し、これらをまとめて物体情報群として不図示のメモリ等に保持しておくとよい。
物体101の物体情報は、選択部13に入力される。選択部13は、物体情報における形状や種類などから、物体101に適したデプスモデルをデプスモデル記憶部17内のデプスモデル群から選択する(ステップS104)。図4(c)に、物体101の物体情報から選択されたデプスモデル120の一例を示す。図4(c)に示すように、選択されたデプスモデル120に対しては、物体101の中心座標(XF,YF)に相当する位置に、基準座標(XF,YF)が設定される。ここで、選択されるデプスモデルの大きさは、物体領域の大きさに近い必要はない。すなわち、選択されるデプスモデルは、物体領域に近い形状であればよい。選択したデプスモデルと物体領域との大きさが異なる場合、物体情報中の大きさに基づいて、デプスモデルを拡大または縮小すればよい。図4(c)に示す例では、デプスモデルの顔幅が、物体情報中の幅WFと一致するように、デプスモデルが拡大または縮小される。なお、入力画像100中に物体が複数ある場合、選択部13は、個々の物体に対してデプスモデルを選択し、選択したデプスモデルそれぞれに位置および大きさを設定する。この場合、選択部13は、複数のデプスモデルを選択し、これらをまとめてデプスモデル群として不図示のメモリ等に保持しておくとよい。
また、物体情報は、上述のように、セグメント部14にも入力される。セグメント部14は、物体情報に基づいて、入力画像100から物体101の領域(物体領域)を区分する(ステップS105)。物体領域の区分には、一般的なセグメント技術を用いることができる。図4(d)に、区分した物体領域110の一例を示す。図4(d)に示すように、セグメント技術を用いることで、たとえば人物の物体101であれば、その手足や帽子なども含めた物体領域110を区分することができる。区分した物体領域110には、物体101の中心座標(XF,YF)に相当する位置に、基準座標(XF,YF)が設定される。なお、物体領域110は、すくなくとも物体101の輪郭部分の情報を含んでいればよい。また、入力画像100中に複数の物体がある場合、検出された物体ごとに物体情報を生成し、これらをまとめて物体情報群として不図示のメモリ等に保持しておくとよい。さらに、セグメント部14は、物体101に対して予め手入力されたセグメント領域を物体領域110として使用してもよい。
選択されたデプスモデル120および区分された物体領域110は、デプスマップ生成部15に入力される。デプスマップ生成部15では、まず、デプスモデル補正部151が、入力されたデプスモデル120と物体領域110とを重畳する(ステップS106)。図4(e)に示すように、デプスモデル120と物体領域110とは、たとえばデプスモデル120に設定された基準座標(XF,YF)と物体領域110に設定された基準座標(XF,YF)とが一致するように重畳される。
つづいて、デプスモデル補正部151は、図4(f)に示すように、デプスモデル120の画素のうち物体領域110外に位置する画素をデプスモデル120から消去し(ステップS107)、また、物体領域110内であるがデプスモデル120には無い画素をデプスモデル120に追加する(ステップS108)ことで、デプスモデル120を補正する。ここで、デプスモデル120の補正を、図4(f)の拡大図である図5を参照しつつ説明する。この補正では、図5に示すように、デプスモデル120のみの領域121内の画素を消去し(ステップS107)、物体領域110のみの領域111に画素を追加する(ステップS108)。追加する画素の奥行値Zは、たとえば以下のような値に設定することができる。ただし、以下に例示するものに限定されず、補正後のデプスモデルを視覚的に表示した際に違和感の無いもしくは少ない奥行きを追加の画素に与えることが可能な奥行値であれば如何様にも変形できる。なお、以下において近傍とは、ある位置に対してたとえば周囲数〜数十画素以内の領域を指す。
(1)追加する画素の位置(補正位置)から最も近い位置にあるデプスモデル120中の画素の奥行値Z
(2)デプスモデル120中の画素であって、追加する画素の位置(補正位置)から最も近い位置の近傍n(nは自然数)個の画素の奥行値Zの平均値
(3)デプスモデル120中の画素であって、追加する画素の位置から最も近い位置の近傍n個の画素の奥行値Zの最大値
(4)デプスモデル120の画素の画素値Zのうちの最大値
(1)追加する画素の位置(補正位置)から最も近い位置にあるデプスモデル120中の画素の奥行値Z
(2)デプスモデル120中の画素であって、追加する画素の位置(補正位置)から最も近い位置の近傍n(nは自然数)個の画素の奥行値Zの平均値
(3)デプスモデル120中の画素であって、追加する画素の位置から最も近い位置の近傍n個の画素の奥行値Zの最大値
(4)デプスモデル120の画素の画素値Zのうちの最大値
以上のようなデプスモデルの補正を行うことで、図4(g)に示すような補正デプスモデル130が生成される。この補正デプスモデル130は、デプスマップ合成部152に入力される。デプスマップ合成部152には、上述したように、ベースデプス入力部11からベースデプス140(図4(h)参照)も入力される(S102)。
デプスマップ合成部152は、ベースデプス140の座標系と補正デプスモデル130の基準座標(XF,YF)とに基づいて、ベースデプス140と補正デプスモデル130とを合成することで、図4(i)に示すように、入力画像100に対するデプスマップ150を生成する(ステップS109)。なお、ベースデプス140と補正デプスモデル130との合成では、ベースデプス140中の画素が補正デプスマップ130の画素に置き換えられる。ただし、これに限定されず、たとえばベースデプス140と補正デプスモデル130とで対応する画素において、より手前にある画素、すなわち奥行値Zが小さい画素の画素値Zを用いるようにしてもよい。
以上のようにして生成されたデプスマップ150は、デプスマップ生成部15から表示装置などの所定の外部装置へ出力される(ステップS110)。これにより、1つの入力画像100に対してデプスマップ150を生成する画像処理方法が終了する。
以上のように、本実施の形態1によれば、2次元画像内の人物などの物体の形状が予め用意しておいたデプスモデルと異なる場合でも、物体に対してより的確なデプスモデルを生成することが可能となる。この結果、2次元画像からより正確な奥行きの構造(デプスマップ)を生成することが可能となる。
また、本実施の形態1で生成された奥行きに基づいて、入力画像100の各画素のシフト量を求め、入力画像100をシフトさせることにより、入力画像100とは別の視点から観測した画像を生成することができる。そこで、2視点またはそれ以上の数の視点から観測した多視点画像を入力画像100から生成し、それらを立体映像表示用の表示装置に表示することにより立体視が可能となる。入力画像100とは別の視点から観測した画像は、たとえば別の視点に基づいたレンダリングにより生成することができる。
(デプスマップ生成部の変形例1)
なお、実施の形態1では、物体101に対して選択したデプスモデル120を物体領域110に基づいて補正することで、物体に対してより的確な補正デプスモデル130を生成した。ただし、これに限定されず、たとえば入力画像100中の物体101に対してデプスモデル120を付与した後に、物体101の奥行きを物体領域110に基づいて補正することでも、同様の効果を得ることができる。この場合、図1におけるデプスマップ生成部15は、たとえば図6に示すように構成される。
なお、実施の形態1では、物体101に対して選択したデプスモデル120を物体領域110に基づいて補正することで、物体に対してより的確な補正デプスモデル130を生成した。ただし、これに限定されず、たとえば入力画像100中の物体101に対してデプスモデル120を付与した後に、物体101の奥行きを物体領域110に基づいて補正することでも、同様の効果を得ることができる。この場合、図1におけるデプスマップ生成部15は、たとえば図6に示すように構成される。
図6に示すように、本変形例1によるデプスマップ生成部15は、デプスモデル合成部153と、デプスマップ補正部154とを含む。デプスモデル合成部153には、選択部13から出力されたデプスモデル120と、ベースデプス入力部11から出力されたベースデプス140とが入力される。デプスモデル合成部153は、ベースデプス140とデプスモデル120とを合成することで、プレデプスマップを生成する。デプスマップ補正部154には、物体領域110とプレデプスマップとが入力される。デプスマップ補正部154は、物体領域110に基づいてプレデプスマップ中のデプスモデル120を補正する。これにより、実質的にベースデプス140に補正デプスモデル130が合成されたデプスマップ150が生成される。
つぎに、本変形例1による画像処理方法の流れを、以下に図面を用いて詳細に説明する。図7は、本変形例1による画像処理方法の概略流れを示すフローチャートである。図8は、入力画像に対するデプスマップを生成する際の流れを示す概略図である。なお、以下の説明において、実施の形態1と同様の構成については、適宜それを参酌する。
図7に示すように、本変形例1による画像処理方法では、図3のステップS101〜S105に示した工程と同様の工程を経ることで、ベースデプス140とデプスモデル120と物体領域110とを取得する(図8(a)〜図8(d)および図8(e)参照)。ベースデプス140とデプスモデル120と物体領域110とは、上述のように、デプスマップ生成部15に入力される。
つぎに、本変形例1では、デプスマップ生成部15のデプスモデル合成部153が、ベースデプス140の座標系とデプスモデル120の基準座標(XF,YF)とに基づいて、ベースデプス140とデプスモデル120とを合成する(ステップS111)。これにより、図8(f)に示すように、ベースデプス140にデプスモデル120が重畳されたプレデプスマップ141が生成される。なお、ベースデプス140と補正デプスモデル130との合成方法は、上述のベースデプス140と補正デプスモデル130との合成と同様である。
プレデプスマップ141は、物体領域110とともに、デプスマップ補正部154に入力される。デプスマップ補正部154は、図8(g)に示すように、プレデプスマップ141の座標系と物体領域110の基準座標(XF,YF)とに基づいて、プレデプスマップ141に物体領域110を重畳する(ステップS112)。
つづいて、デプスマップ補正部154は、図8(h)に示すように、プレデプスマップ141中の物体領域110外の画素の奥行値Zを、ベースデプス140中の対応する画素の奥行値Zに置き換え(ステップS113)、また、プレデプスマップ141中の物体領域110内であるがデプスモデル120には無い画素の奥行値Zを補正する(ステップS114)。これにより、プレデプスマップ141中のデプスモデル120が補正デプスモデル130に補正され、図8(i)に示すように、ベースデプス140と補正デプスモデル130とが合成されたデプスマップ150が生成される。なお、補正する画素の奥行値Zは、図3のステップS108で追加する画素の奥行値Zと同様に設定することができる。また、以上のようにして生成されたデプスマップ150は、図3のステップS110と同様、デプスマップ生成部15から表示装置などの所定の外部装置へ出力される。これにより、1つの入力画像100に対してデプスマップ150を生成する画像処理方法が終了する。
以上のように、たとえば入力画像100中の物体101に対してデプスモデル120を付与した後に、デプスモデル120を物体領域110に基づいて補正することでも、実施の形態1と同様の効果を得ることができる。なお、その他の構成、動作および効果は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。
<実施の形態2>
つぎに、実施の形態2にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。以下の説明において、実施の形態1またはその変形例と同様の構成には、同一の符号を付し、その重複する説明を省略する。
つぎに、実施の形態2にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。以下の説明において、実施の形態1またはその変形例と同様の構成には、同一の符号を付し、その重複する説明を省略する。
図9は、本実施の形態2による画像処理装置2の概略構成を示す。図9と図1とを比較すると明らかなように、画像処理装置2(図9)は、画像処理装置1(図1)と同様の構成を備える。ただし、画像処理装置2では、画像処理装置1におけるベースデプス入力部11がベースデプス生成部21に置き換えられるとともに、ベースデプス記憶部16が省略されている。
ベースデプス生成部21には、入力画像が入力される。ベースデプス生成部21は、入力画像からベースデプスを生成する。ベースデプスの生成には、既知の技術を用いてもよい。ただし、ベースデプスの生成に用いる技術は、画像の構図や画像中の物体の動きなどを解析して、画像全体に対するベースデプスを生成する技術が好ましい。そこで、ベースデプス生成部21は、たとえば入力画像における地面または床面の領域(以下では地面領域とする)や空または天井の領域(以下では空領域とする)などから入力画像の空間的構造を特定または推定し、この推定された空間的構造に基づいてベースデプスを生成する。なお、地面領域や空領域の検出は、一般に知られている方法などを用いればよい。既知の検出方法には、たとえばそれぞれの領域について識別器を用いる方法などがある。また、その他にも、入力画像中の立体物と空と地面との3種類のうち2種類の領域についての検出を行い、残った領域を残りの種類の領域とする方法などが考えられる。この場合、領域を4種類以上に分類するのであれば、1種類を残して他の種類の領域を検出することとなる。なお、ベースデプス生成部21が生成したベースデプスは、実施の形態1またはその変形例と同様、デプスマップ生成部15に入力され、デプスマップの生成に使用される。
つぎに、本実施の形態2による画像処理方法の流れを、以下に図面を用いて詳細に説明する。図10は、本実施の形態2による画像処理方法の概略流れを示すフローチャートである。図11は、入力画像に対するデプスマップを生成する際の流れを示す概略図である。なお、以下の説明において、実施の形態1またはその変形例と同様の構成については、適宜それを参酌する。
図10に示すように、本実施の形態2による画像処理方法では、外部から画像処理装置2に、図11(a)に示すような入力画像200が入力されると(ステップS101)、ベースデプス生成部21は、入力画像200を解析し、その結果に基づいて図11(h)に示すようなベースデプス240を生成する(ステップS202)。その後、本実施の形態2では、図3において、ステップS103〜S110と同様の工程を経ることで、生成したデプスマップ250を表示装置などの所定の外部装置へ出力する(図11(b)〜図11(g)および図11(i)参照)。これにより、1つの入力画像200に対してデプスマップ250を生成する画像処理方法が終了する。
以上のように構成および動作することで、本実施の形態2では、入力画像200の空間的構造に応じたベースデプス240を生成するため、入力画像200中の実際の奥行き構造により近い奥行きの構造を使用することが可能となる。この結果、2次元画像からより正確な奥行きの構造(デプスマップ)を生成することが可能となる。なお、その他の構成、動作および効果は、実施の形態1またはその変形例と同様であるため、ここでは詳細な説明を省略する。
<実施の形態3>
つぎに、実施の形態3にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。以下の説明において、実施の形態1またはその変形例と同様の構成には、同一の符号を付し、その重複する説明を省略する。
つぎに、実施の形態3にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。以下の説明において、実施の形態1またはその変形例と同様の構成には、同一の符号を付し、その重複する説明を省略する。
図12は、本実施の形態3による画像処理装置3の概略構成を示す。図12と図1とを比較すると明らかなように、画像処理装置3(図12)は、画像処理装置1(図1)と同様の構成を備える。ただし、画像処理装置3では、画像処理装置1における選択部13がデプスモデル生成部33に置き換えられるとともに、デプスモデル記憶部17が省略されている。
デプスモデル生成部33は、検出部12において検出された物体101の位置および領域(形状や大きさ等)から、この物体101に対して付与するデプスモデルを生成する。生成するデプスモデルは、半球(断面が楕円のものを含む)や半円柱や半円錐や直方体や多角錐など、種々変形できる。デプスモデルの形状は、関数によって容易に求められるものであるとよい。デプスモデル生成部33は、たとえば、物体101の形状に基づいて、デプスモデルを生成する際に使用する関数を選択し、また、物体の101の大きさに基づいて関数によって求まる形状のサイズを調節する。これによって生成されたデプスモデルは、実施の形態1、2およびその変形例と同様、デプスマップ生成部15に入力され、デプスマップの生成に使用される。
つぎに、本実施の形態3による画像処理方法の流れを、以下に図面を用いて詳細に説明する。図13は、本実施の形態3による画像処理方法の概略流れを示すフローチャートである。図14は、入力画像中の物体に対するデプスモデルを生成する際の流れを示す概略図である。なお、以下の説明において、実施の形態1、2またはその変形例と同様の構成については、適宜それを参酌する。
図13に示すように、本実施の形態3による画像処理方法では、図3のステップS101〜S103に示した工程と同様の工程を経ることで、ベースデプス140と物体領域110とを取得する(図14(a)および図14(c)参照)。ただし、本実施の形態3では、ステップS103で検出される物体101の位置は、物体101の重心座標や中心座標を基準座標(XF,YF)であるとよい。また、物体101の幅WFは、物体101の主要部の幅であるとよい。
つづいて、本実施の形態3では、検出部12によって検出された物体101の形状からデプスモデルの生成に使用する関数を選択し(ステップS301)、つづいて、選択した関数に物体101の大きさに応じた値を設定してモデル算出を行うことで、図14(b)に示すようなデプスモデル320を生成する(ステップS302)。その後、図3のステップS105〜S109に示した工程と同様の工程を経ることで、デプスモデル320を補正して補正デプスモデル130を生成し(図14(d)〜図14(f)参照)、これとベースデプス140とを合成することで、デプスマップ150を生成する。また、生成したデプスマップ150を、図3のステップS110と同様、表示装置などの所定の外部装置へ出力する。これにより、1つの入力画像100に対してデプスマップ150を生成する画像処理方法が終了する。
以上のように構成および動作することで、本実施の形態3では、予め様々な物体に対応したデプスモデルを用意する必要が省かれるため、画像処理装置3に設ける記憶領域を低減できる。なお、その他の構成、動作および効果は、実施の形態1、2またはその変形例と同様であるため、ここでは詳細な説明を省略する。
なお、上述した実施の形態における画像処理装置および方法は、ソフトウエアで実現されても、ハードウエアで実現されてもよい。ソフトウエアで実現する場合、たとえば所定のプログラムをCPUなどの情報処理装置が読み出して実行することで、画像処理装置および方法が実現される。所定のプログラムは、たとえばCD−ROMやDVD−ROMやフラッシュメモリなどの記録媒体に記録されていてもよいし、ネットワークに接続された記録装置に記録されていてもよい。情報処理装置は、この所定のプログラムを読み出すか、ダウンロードして実行する。
また、上記実施の形態およびその変形例は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、仕様等に応じて種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施の形態が可能であることは上記記載から自明である。例えば各実施の形態に対して適宜例示した変形例は、他の実施の形態に対して適用することも可能であることは言うまでもない。
1、2、3 画像処理装置、 11 ベースデプス入力部、 12 検出部、 13 選択部、 14 セグメント部、 15 デプスマップ生成部、 16 ベースデプス記憶部、 17 デプスモデル記憶部、 21 ベースデプス生成部、 33 デプスモデル生成部 100,200 入力画像、 101 物体、 110 物体領域、 120,320 デプスモデル、 111,121 領域、 130 補正デプスモデル、 140,240 ベースデプス、 141 プレデプスマップ、 150,250 デプスマップ、 151 デプスモデル補正部、 152 デプスマップ合成部、 153 デプスモデル合成部、 154 デプスマップ補正部
Claims (14)
- 画像に含まれる物体を検出する検出部と、
検出された前記物体の性質に応じて前記物体の奥行きの情報のベースとするデプスモデルを選択する選択部と、
検出された前記物体の領域を前記画像から区分するセグメント部と、
前記画像の奥行きを表現するデプスマップを生成するデプスマップ生成部とを備え、
前記デプスマップ生成部は、
前記画像中の検出された前記物体の位置に対応する前記デプスマップ上の位置に、前記デプスモデルを配し、配された前記デプスモデルの領域と前記物体の領域とを比較し、互いに重なり合わない位置に対して、補正後の奥行値を与える、画像処理装置。 - 前記物体の領域において、前記デプスモデルの領域に含まれない領域がある場合、
前記デプスマップ生成部は、前記デプスマップ上の当該領域に対応する非重なり位置に対して、前記非重なり位置の近傍の前記デプスモデル中の位置の奥行きの情報を用いて、前記奥行値を与える、請求項1に記載の画像処理装置。 - 前記奥行値は、
前記非重なり位置から最も近い前記デプスモデル中の画素の奥行値とする、請求項2記載の画像処理装置。 - 前記奥行値は、
前記非重なり位置から最も近い前記デプスモデル中の画素の奥行値と、当該画素の周囲の複数の画素の奥行値とを平均した値である、請求項2記載の画像処理装置。 - 前記奥行値は、
前記非重なり位置から最も近い前記デプスモデル中の画素の奥行値と、当該画素の周囲の複数の画素の奥行値のうち、最奥の値である、請求項2記載の画像処理装置。 - 前記奥行値は、
前記デプスモデル中の画素の奥行値のうち、最奥の値である、請求項2記載の画像処理装置。 - 前記デプスモデルの領域において、前記物体の領域に含まれない領域がある場合、
前記デプスマップ生成部は、前記デプスマップ上の当該領域に対応する非重なり位置の奥行値を削除する、請求項1に記載の画像処理装置。 - 前記デプスモデルの領域において、前記物体の領域に含まれない領域がある場合、
前記デプスマップ生成部は、前記デプスマップ上の当該領域に対応する非重なり位置に対して、前記非重なり位置の近傍で、かつ前記物体の領域外の位置の奥行きの情報を用いて、前記奥行値を与える、請求項1に記載の画像処理装置。 - 前記検出部は、前記画像から少なくとも人物の形状を前記物体として検出し、
前記選択部は、予め登録された人物のデプスモデル群から前記検出部で検出された前記人物の形状に応じて前記デプスモデルを選択し、
前記セグメント部は、前記画像から前記人物の領域を前記物体の領域として区分する、
請求項1に記載の画像処理装置。 - 前記デプスマップ生成部は、前記物体の領域内であって前記デプスモデル外の領域に奥行きの情報を追加する場合、追加する当該奥行きの情報を前記デプスモデルにおける最も奥を示す情報とする、請求項1に記載の画像処理装置。
- 前記画像の奥行きの情報のベースとして該画像に付与するベースデプスを生成するベースデプス生成部をさらに備え、
前記ベースデプス生成部は、前記デプスモデルよりも奥に位置するように前記ベースデプスを生成する、請求項1に記載の画像処理装置。 - 前記画像の奥行きの情報のベースとして該画像に付与するベースデプスを生成するベースデプス生成部をさらに備え、
前記ベースデプス生成部は、奥行きが最も奥となる前記ベースデプスを生成する、請求項1に記載の画像処理装置。 - 画像に含まれる物体を検出し、
検出された前記物体の性質に応じて前記物体の奥行きの情報のベースとするデプスモデルを選択し、
検出された前記物体の領域を前記画像から区分し、
前記画像の奥行きを表現するデプスマップを生成し、
前記デプスマップを生成する際は、
前記画像中の検出された前記物体の位置に対応する前記デプスマップ上の位置に、前記デプスモデルを配し、配された前記デプスモデルの領域と前記物体の領域とを比較し、互いに重なり合わない位置に対して、補正後の奥行値を与える、画像処理方法。 - コンピュータを、
画像に含まれる物体を検出する手段と、
検出された前記物体の性質に応じて前記物体の奥行きの情報のベースとするデプスモデルを選択する手段と、
検出された前記物体の領域を前記画像から区分する手段と、
前記画像の奥行きを表現するデプスマップを生成する手段として機能させ、
前記デプスマップを生成する手段は、
前記画像中の検出された前記物体の位置に対応する前記デプスマップ上の位置に、前記デプスモデルを配し、配された前記デプスモデルの領域と前記物体の領域とを比較し、互いに重なり合わない位置に対して、補正後の奥行値を与える、画像処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010252372A JP5132754B2 (ja) | 2010-11-10 | 2010-11-10 | 画像処理装置、方法およびそのプログラム |
US13/069,681 US20120113117A1 (en) | 2010-11-10 | 2011-03-23 | Image processing apparatus, image processing method, and computer program product thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010252372A JP5132754B2 (ja) | 2010-11-10 | 2010-11-10 | 画像処理装置、方法およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012103135A JP2012103135A (ja) | 2012-05-31 |
JP5132754B2 true JP5132754B2 (ja) | 2013-01-30 |
Family
ID=46019203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010252372A Expired - Fee Related JP5132754B2 (ja) | 2010-11-10 | 2010-11-10 | 画像処理装置、方法およびそのプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20120113117A1 (ja) |
JP (1) | JP5132754B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130147801A1 (en) * | 2011-12-09 | 2013-06-13 | Samsung Electronics Co., Ltd. | Electronic apparatus, method for producing augmented reality image, and computer-readable recording medium |
TWI493962B (zh) * | 2012-09-05 | 2015-07-21 | Acer Inc | 多媒體處理系統及音訊信號調整方法 |
JP6351238B2 (ja) | 2013-11-15 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、撮像装置および距離補正方法 |
TWI530909B (zh) * | 2013-12-31 | 2016-04-21 | 財團法人工業技術研究院 | 影像合成系統及方法 |
KR102223064B1 (ko) * | 2014-03-18 | 2021-03-04 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
TWI549477B (zh) * | 2014-04-17 | 2016-09-11 | 聚晶半導體股份有限公司 | 產生深度資訊的方法與裝置 |
WO2017021731A1 (en) * | 2015-08-03 | 2017-02-09 | Hoarton, Lloyd | 2d-to-3d video frame conversion |
US9661298B2 (en) * | 2015-08-06 | 2017-05-23 | Intel Corporation | Depth image enhancement for hardware generated depth images |
JP6752059B2 (ja) * | 2016-06-01 | 2020-09-09 | キヤノン株式会社 | 画像処理装置及び画像処理方法、プログラム並びに記憶媒体 |
US10991150B2 (en) | 2018-05-09 | 2021-04-27 | Massachusetts Institute Of Technology | View generation from a single image using fully convolutional neural networks |
US10586343B1 (en) * | 2018-06-01 | 2020-03-10 | Facebook Technologies, Llc | 3-d head mounted display based environmental modeling system |
US11335084B2 (en) * | 2019-09-18 | 2022-05-17 | International Business Machines Corporation | Image object anomaly detection |
CN114937071B (zh) * | 2022-07-26 | 2022-10-21 | 武汉市聚芯微电子有限责任公司 | 一种深度测量方法、装置、设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3910382B2 (ja) * | 2001-07-11 | 2007-04-25 | 株式会社日立製作所 | 画像照合装置 |
EP1437898A1 (en) * | 2002-12-30 | 2004-07-14 | Koninklijke Philips Electronics N.V. | Video filtering for stereo images |
JP4189339B2 (ja) * | 2004-03-09 | 2008-12-03 | 日本電信電話株式会社 | 3次元モデル生成方法と生成装置およびプログラムと記録媒体 |
US20080278487A1 (en) * | 2005-04-07 | 2008-11-13 | Nxp B.V. | Method and Device for Three-Dimensional Rendering |
EP2160037A3 (en) * | 2006-06-23 | 2010-11-17 | Imax Corporation | Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition |
JP5088220B2 (ja) * | 2008-04-24 | 2012-12-05 | カシオ計算機株式会社 | 画像生成装置、及びプログラム |
KR101506926B1 (ko) * | 2008-12-04 | 2015-03-30 | 삼성전자주식회사 | 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법 |
JP2010152521A (ja) * | 2008-12-24 | 2010-07-08 | Toshiba Corp | 画像立体化処理装置及び方法 |
KR101547151B1 (ko) * | 2008-12-26 | 2015-08-25 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
US8659592B2 (en) * | 2009-09-24 | 2014-02-25 | Shenzhen Tcl New Technology Ltd | 2D to 3D video conversion |
-
2010
- 2010-11-10 JP JP2010252372A patent/JP5132754B2/ja not_active Expired - Fee Related
-
2011
- 2011-03-23 US US13/069,681 patent/US20120113117A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20120113117A1 (en) | 2012-05-10 |
JP2012103135A (ja) | 2012-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5132754B2 (ja) | 画像処理装置、方法およびそのプログラム | |
US11663778B2 (en) | Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display | |
CN102938844B (zh) | 利用立体成像生成自由视点视频 | |
JP4764305B2 (ja) | 立体画像生成装置、方法およびプログラム | |
JP2010158009A (ja) | 映像処理方法及びその装置 | |
CN105191287A (zh) | 替换视频流中的对象的方法及计算机程序 | |
KR101181199B1 (ko) | 배경 지형 장면의 입체 이미지 생성 방법, 시스템 및 이를 위한 기록매체 | |
US20200202611A1 (en) | Image generation method and image generation device | |
KR20130003135A (ko) | 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치 | |
US20230281912A1 (en) | Method and system for generating a target image from plural multi-plane images | |
JP5422538B2 (ja) | 画像処理装置、表示装置、方法およびそのプログラム | |
WO2018052100A1 (ja) | 画像処理装置、画像処理方法、画像処理プログラム | |
JP5862635B2 (ja) | 画像処理装置、立体データ生成方法、及びプログラム | |
CN108450031B (zh) | 图像捕获装置 | |
KR101548236B1 (ko) | 3차원 영상의 색상 보정방법 | |
US9628672B2 (en) | Content processing apparatus, content processing method, and storage medium | |
CN106204710A (zh) | 基于图像二维信息熵的纹理块映射到三维网格模型的方法 | |
KR101817756B1 (ko) | 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법 | |
JP5807569B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
KR101906936B1 (ko) | 라이트 필드 홀로그램 생성 장치 및 방법 | |
US11468653B2 (en) | Image processing device, image processing method, program, and display device | |
KR101801898B1 (ko) | 다시점 영상 기반의 단일 영상 처리 방법 및 장치 | |
JP5887966B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2011048545A (ja) | 画像合成装置及びプログラム | |
TW202310616A (zh) | 多物件表面影像(mosi)格式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121009 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121106 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151116 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151116 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |