JP2007053621A - 画像生成装置 - Google Patents
画像生成装置 Download PDFInfo
- Publication number
- JP2007053621A JP2007053621A JP2005237665A JP2005237665A JP2007053621A JP 2007053621 A JP2007053621 A JP 2007053621A JP 2005237665 A JP2005237665 A JP 2005237665A JP 2005237665 A JP2005237665 A JP 2005237665A JP 2007053621 A JP2007053621 A JP 2007053621A
- Authority
- JP
- Japan
- Prior art keywords
- image
- value
- pixel
- disparity
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】 少ないカメラ数で撮影された多視点画像からでも、効率よく障害物を消去した画像を生成する。
【解決手段】 概ね同じ視野に対し撮影した2つの画像から、一方の画像上の画素ごとのディスパリティ値を算出するディスパリティ算出部と、ディスパリティ値に応じて一方の画像の画素ごとに大小いずれかの重み値を設定する重み設定部と、一方の画像上で注目領域を設定する注目領域抽出部と、注目領域に対応する他方の画像上の対応領域を算出し、これら領域の位置関係を表す注目領域ベクトルを算出する注目領域ベクトル算出部と、画素ごとの重み値と注目領域ベクトルに基づいて、一方の画像上の画素で重み値が小に設定された画素位置に、注目領域ベクトル分ずれた他方の画像上の位置の画素値を抽出して加算して画像を生成する画像加算部を備えたものである。
【選択図】 図1
【解決手段】 概ね同じ視野に対し撮影した2つの画像から、一方の画像上の画素ごとのディスパリティ値を算出するディスパリティ算出部と、ディスパリティ値に応じて一方の画像の画素ごとに大小いずれかの重み値を設定する重み設定部と、一方の画像上で注目領域を設定する注目領域抽出部と、注目領域に対応する他方の画像上の対応領域を算出し、これら領域の位置関係を表す注目領域ベクトルを算出する注目領域ベクトル算出部と、画素ごとの重み値と注目領域ベクトルに基づいて、一方の画像上の画素で重み値が小に設定された画素位置に、注目領域ベクトル分ずれた他方の画像上の位置の画素値を抽出して加算して画像を生成する画像加算部を備えたものである。
【選択図】 図1
Description
この発明は、複数のカメラ等で撮影された多視点画像から監視用途などに有用な画像を生成する画像生成装置に関するものである。
従来の画像生成装置として、実際にはカメラの置かれていない視点位置から見た画像、すなわち仮想視点画像を生成するものがある(例えば、特許文献1参照)。この画像生成装置では、複数の異なる視点の画像から2枚以上の奥行きマップを生成し、これらの奥行きマップを基に仮想視点からみた仮想視点奥行きマップを生成する。ある1つの視点から見えない領域の奥行き値を他の視点からの情報で補間し、奥行き値の決定されない画素については、周囲の画素の奥行き地を用いて線形補間し、さらに平滑化処理を行う。このように生成された仮想視点奥行きマップをもとに、多視点画像(実画像)の画素を並べ変えて仮想視点画像を再構成する。
また、別の従来の画像生成方法として、例えば多数のカメラを並列的に配置し、それぞれで撮影された画像をカメラの位置関係に応じて平行移動させながら順次加算することで新たな画像を生成する方法がある(例えば、非特許文献1および非特許文献2)。このように画像を生成することで、手前の障害物を消去し、その障害物の向こう側にある対象物をより明確に表示させるようにしている。この方法の場合、障害物の消去できる程度は、カメラ数に依存している。
特許文献1に記載された画像生成方法では、実画像で見えづらい部分に対し、仮想視点からみた画像を生成するようにしているので、障害物に隠された部分を元の実画像とほぼ同じ視点から見るようにすることはできないという問題があった。また、非特許文献1や非特許文献2に記載された画像生成方法では、手前の障害物が邪魔にならない程度に消去するためには、多数のカメラを用いなければならないという問題があった。
この発明は、上記問題点を解決するためになされたもので、少ないカメラ数で撮影された多視点画像からでも、効率よく障害物を消去した画像を生成する画像生成装置を得ることを目的とする。
この発明に係る画像生成装置は、少なくとも2つのカメラを使用して異なる地点から概ね同じ視野に対し撮影した2つの画像に基づいて、2つの画像のうちの少なくとも一方の画像上の画素ごとのディスパリティ値を算出するディスパリティ算出部と、ディスパリティ値に応じて一方の画像の画素ごとに大小いずれかの重み値を設定する重み設定部と、一方の画像上で注目領域を設定する注目領域抽出部と、設定された注目領域に対応する他方の画像上の対応領域を算出し、これら注目領域と対応領域の位置関係を表す注目領域ベクトルを算出する注目領域ベクトル算出部と、設定された画素ごとの重み値と算出された注目領域ベクトルに基づいて、一方の画像上の画素で重み値が小に設定された画素位置に、注目領域ベクトル分ずれた他方の画像上の位置の画素値を抽出して加算することにより画像を生成する画像加算部とを備えたものである。
この発明によれば、最低2つの視点から撮影した画像の各1枚ずつから、その1つの画像内にある障害物を透視し、その影に隠れている領域を見えるようにした画像を生成できる効果がある。また、その透視した領域を鮮明に表示することができる。
実施の形態1.
図1はこの発明の実施の形態1による画像生成装置の機能構成を示すブロック図である。図1の画像生成装置は、例えば2つのカメラでそれぞれ撮影された2つの画像から、障害物を透視した透視画像を生成する構成を示している。
図において、Aカメラ1とBカメラ2は、概ね同じ視野を撮影したA1画像とB1画像をそれぞれ生成する手段である。ディスパリティ(disparity)算出部3は、撮影されたA1画像とB1画像に基づいて、少なくともA1画像上の各画素のディスパリティ値を算出する手段である。重み設定部4は、算出されたディスパリティ値に応じてA1画像の画素ごとに大または小の重み値を設定する手段である。注目領域抽出部5は、A1画像上で、例えば動いている物体の領域を注目領域として設定する手段である。注目領域ベクトル算出部6は、A1画像上の注目領域に対応するB1画像上の対応領域を算出し、これら注目領域と対応領域の位置関係を表す注目領域ベクトルを算出する手段である。画像加算部7は、画素ごとの重み値と注目領域ベクトルに基づいて、A1画像上の画素で重み値を小に設定された画素位置に、注目領域ベクトル分ずれたB1画像上の位置の画素値を抽出して加算することにより新たな画像を生成する手段である。
なお、ここでディスパリティについて説明しておくと、ディスパリティとは、同一の物体を視点位置を変えて撮影した2つの画像があるとき、同一物体の同じ位置に相当する一方の画像内の画素の位置と、他方の画像内の画素の位置とのずれの大きさ(または差の大きさ)である。画素数で示されることが多い。視差とも言われ、視点から近い物体ほど、ディスパリティは大きくなる。一方の画像上の位置から、他方の画像上の位置に対し、方向も含めた情報として扱う場合は、ディスパリティベクトル(または視差ベクトル)と呼ぶことがある。
図1はこの発明の実施の形態1による画像生成装置の機能構成を示すブロック図である。図1の画像生成装置は、例えば2つのカメラでそれぞれ撮影された2つの画像から、障害物を透視した透視画像を生成する構成を示している。
図において、Aカメラ1とBカメラ2は、概ね同じ視野を撮影したA1画像とB1画像をそれぞれ生成する手段である。ディスパリティ(disparity)算出部3は、撮影されたA1画像とB1画像に基づいて、少なくともA1画像上の各画素のディスパリティ値を算出する手段である。重み設定部4は、算出されたディスパリティ値に応じてA1画像の画素ごとに大または小の重み値を設定する手段である。注目領域抽出部5は、A1画像上で、例えば動いている物体の領域を注目領域として設定する手段である。注目領域ベクトル算出部6は、A1画像上の注目領域に対応するB1画像上の対応領域を算出し、これら注目領域と対応領域の位置関係を表す注目領域ベクトルを算出する手段である。画像加算部7は、画素ごとの重み値と注目領域ベクトルに基づいて、A1画像上の画素で重み値を小に設定された画素位置に、注目領域ベクトル分ずれたB1画像上の位置の画素値を抽出して加算することにより新たな画像を生成する手段である。
なお、ここでディスパリティについて説明しておくと、ディスパリティとは、同一の物体を視点位置を変えて撮影した2つの画像があるとき、同一物体の同じ位置に相当する一方の画像内の画素の位置と、他方の画像内の画素の位置とのずれの大きさ(または差の大きさ)である。画素数で示されることが多い。視差とも言われ、視点から近い物体ほど、ディスパリティは大きくなる。一方の画像上の位置から、他方の画像上の位置に対し、方向も含めた情報として扱う場合は、ディスパリティベクトル(または視差ベクトル)と呼ぶことがある。
次に、動作について説明する。
この実施の形態1に係る撮影方法と処理画像の例について図2に示す。図2(a)に示すように、Aカメラ1とBカメラ2を視線方向と直交する線上に並列に設置し、ほぼ同じ視野に入る障害物8、ぬいぐるみ9、ダルマ10、背景11を撮影する。それぞれのカメラで撮影した画像をA1画像、B1画像とすると、このとき、2つのカメラの位置は異なっているため、それぞれのカメラで撮影された画像上において、障害物8、ぬいぐるみ9、ダルマ10、背景11の位置は異なって現れる。説明を簡単にするために、AカメラとBカメラの性能が等しく、両者が水平に配置され、かつその視線方向が平行であると仮定する。この場合、A1画像とB1画像に共通に写っている物体は、図2(b)、(e)に示すように、各画像上での位置は水平方向のみで異なり、垂直方向では等しくなる。
この実施の形態1に係る撮影方法と処理画像の例について図2に示す。図2(a)に示すように、Aカメラ1とBカメラ2を視線方向と直交する線上に並列に設置し、ほぼ同じ視野に入る障害物8、ぬいぐるみ9、ダルマ10、背景11を撮影する。それぞれのカメラで撮影した画像をA1画像、B1画像とすると、このとき、2つのカメラの位置は異なっているため、それぞれのカメラで撮影された画像上において、障害物8、ぬいぐるみ9、ダルマ10、背景11の位置は異なって現れる。説明を簡単にするために、AカメラとBカメラの性能が等しく、両者が水平に配置され、かつその視線方向が平行であると仮定する。この場合、A1画像とB1画像に共通に写っている物体は、図2(b)、(e)に示すように、各画像上での位置は水平方向のみで異なり、垂直方向では等しくなる。
ディスパリティ算出部3では、撮影したA1画像とB1画像を用いてステレオマッチングを行い、A1画像上の各画素のディスパリティ値を算出し、画素ごとのディスパリティ値を示した画像であるディスパリティマップAを図2(c)のように生成する。図2の例の場合では、A1画像とB1画像に共通に写っている物体は各画像上の位置が水平方向のみで異なるため、ディスパリティは、A1画像に写っている物体がB1画像内にも写っているとき、その水平方向の位置のずれを示す数値(単位は画素)となる。
ステレオマッチングとしては、例えばSSD(Sum of Squared Difference)と呼ばれる方法があり、これを図3に示す。先ず、図3(a)に示すように、A1画像を一定の大きさの小領域に分割する。次に、それら小領域の1つである小領域Aに対して、図3(b)に示すように、B1画像上に、同じ位置でかつ同じ大きさの小領域B1を見つけ、その小領域B1を囲むように探索範囲Bを設定する。この例では、ディスパリティ値は水平方向の位置ずれを示す値であるため、探索範囲Bも水平方向のみ探索するように設定される。次に、設定された探索範囲B内で小領域B1と同じ大きさの小領域B2を順次1画素ずつ移動させる。小領域B2が移動するごとに、小領域Aと小領域B2内の同じ位置の画素同士でその画素値を差分し、さらにその差分値を2乗する。この演算を小領域Aに含まれる画素数分繰り返して、その差分値の2乗の総和を得る。この総和値を小領域B2が現在存在する位置の評価値とし、順次小領域B2を探索範囲B内の画素位置ごとに移動させ、その都度この評価値を求める。最終的に探索範囲B内の全ての画素位置ごとにこの評価値を算出した上で、この評価値が最小となる小領域B2の位置を、小領域Aと一致する画像B1内の小領域の位置とし、この小領域B2と小領域B1との位置のずれに相当する水平方向の画素数を求める。このとき、この水平方向のずれを、A1画像上の画素のディスパリティ値とする。この他に、ステレオマッチングには様々な方法があるが、どの手法を使用してもよい。
以上のように作成されたディスパリティマップAは、例えば図2(c)のようになる。このディスパリティマップAは、薄い灰色、濃い灰色、黒の3色で示されているが、それぞれ障害物8、ぬいぐるみ9とダルマ10、背景11のディスパリティ値を示している(実際にはそれぞれの中でもディスパリティ値には変化があるが、ここでは無視する)。ここで、例えば各ディスパリティ値(単位は画素)は、薄い灰色、濃い灰色、黒の順に「50」、「20」、「5」を示したものとする。重み設定部4では、例えばディスパリティに対するしきい値として「30」を保持しておく。ディスパリティマップAの画素ごとのディスパリティ値をこのしきい値と比較し、しきい値より大きい場合、その画素に重み値を「0」(または小さい値)に設定し、一方、しきい値以下の場合には重み値を「1」(または大きい値)を設定する。このようにディスパリティ値に応じて大または小の重み値で二分された画素は、図2(d)に示すような重み値マップAを形成する。この重み値マップAにおいて、黒は重み値「0」(または小さい値)の領域(障害物8の領域)を、また、それ以外の薄い灰色は重み値「1」(または大きい値)の領域を表す。
注目領域抽出部5では、A1画像上で動いている領域がある場合に、A1画像と、当該画像を撮影したわずか後に同じカメラ1で再び撮影した画像との間で動きのある画素を検出しA1画像の動きがある画素の領域を注目領域として抽出する。具体的には、図4(a)、(b)に示すように、異なる時刻にAカメラで撮影されたA1画像とA2画像を用いる。今、ぬいぐるみ9が画面に向かって右に動いており、その他のダルマ10や障害物8、背景11は動いていないとする。このとき、以下のような方法で注目領域を抽出する。Aカメラで撮影されたA1画像とそのわずか後に撮影されたA2画像に対し、前記SSDを行って、A1画像の全ての画素ごとに、A2画像に設定された探索範囲に対してSSDの評価値を求め、その評価値を最小とするA2画像の探索範囲内の位置が、A1画像の元の位置と一致していないA1画像の画素を選択することで動き領域を検出する。この動き領域(動いているぬいぐるみ9の領域)をA1画像上の注目領域として設定する。この注目領域を表す注目領域マップAを図4(c)に示す。ここで、薄い灰色が画像A1内部の注目領域を示している。
注目領域ベクトル抽出部6では、先ず、注目領域抽出部5で抽出された画像A1の注目領域を図3(a)の小領域Aに相当するものとして利用し、A1画像とB1画像との間でSSDを行う。これにより、A1画像の注目領域に対し、SSDの評価値を最小とするB1画像内の位置を算出する。この算出されたB1画像内の位置は、多くの場合、図5に示すように、B1画像内で、ぬいぐるみの位置に重なる位置、すなわち図5(b)の対応領域マップBで表される部分となる。このとき、B1画像のディスパリティマップを(画像A1のそれと同様の方法で)あらかじめ作成しておき、このB1画像のディスパリティマップが一定のしきい値の範囲(例えば上記ディスパリティに対するしきい値「30」以下)にあるB1画像内の画素に対してのみ、SSDを行ってもよい。これによって、B1画像内で、ぬいぐるみの位置に重なる位置の探索精度を向上させることができることがある。このとき、SSDの評価値の算出に使用される画素数は変動する可能性があるので、SSDの評価値の最小値を求める際、評価値全体をその算出に使用した画素数で割った、「1画素当たりの評価値」を最小とするB1画像内の位置を算出してもよい。
次に、注目領域ベクトル抽出部6は、上記B1画像内部の位置(図5(b)と同じ図4(d)の対応領域マップB)と、図4(c)の注目領域マップAとを用いて、両者の位置関係を表す注目領域ベクトルを算出する。この注目領域ベクトルの算出は、上記「A1画像の注目領域に対し、SSDの評価値を最小とするB1画像内の位置を算出する」際の、A1画像の注目領域と、B1画像内の算出された位置との「ずれ」をそのまま利用してもよい。なお、A1画像とA2画像との間で動いている部分が少ないときは、注目領域抽出部5で動きの検出に応じて抽出した注目領域の画素数が少なく、上記A1画像とB1画像間で行うSSDで使用する画素数が少なくなり、注目領域ベクトルの精度が低下する可能性がある。その場合には、それ以前に撮影された画像から抽出された注目領域に基づいて算出した注目領域ベクトルを再利用してもよい。また、後述する実施の形態2で示す方法で抽出される注目領域ベクトルを用いてもよい。
また、この例のように、障害物8が動かないと仮定できる場合で、ぬいぐるみ9が継続的に動いているとすると、注目領域を幾つかのフレームに渡って継続して算出し、それら注目領域の範囲(図4(c)の注目領域マップAで、ぬいぐるみに相当する灰色で示された領域)を累積することで、「障害物8やその他の障害物が存在しない領域」を推定することができる。この「障害物8やその他の障害物が存在しない領域」を用いて、図2(d)の、ディスパリティマップAの薄い灰色で示された障害物8の領域の周囲や輪郭に出現する可能性がある、障害物8やその他障害物の誤検出領域を、「誤り」と判断して、無視するようにしてもよい。またこのとき、各フレームごとの注目領域を累積した累積フレーム数を、或るしきい値以上にするか、あるいは或る上下しきい値以内に限定してもよい。また累積するフレームは、例えば、連続するA1画像とA2画像との間で、動いている部分をその画素数などで判断し、あるしきい値以上の画素が動いていると判断できるフレームのみ、累積に使用してもよい。
画像加算部7では、A1画像上の画素で重み値を「0」とされた画素位置に、注目領域ベクトル分ずれた位置のB1画像の画素値(B1画像の対応領域の画素値)を埋め込む。A1画像内部の重み値が「0」とされた全ての画素位置(A1画像上の障害物8の領域)に対して、B1画像の対応領域を埋め込む(加算する)ことで、図3(c)に示すような新たなC1画像を生成する。このとき、重みを「0」、「1」ではなく、「小さい値(例えば0.3)」、「大きい値(例えば0.7)」とそれぞれしたとき、A1画像内部の重み値が「小さい値」とされた全ての画素位置(障害物8の領域)に対して、埋め込む画素値を、
{(A1画像の画素値)×「小さい値」+(B1画像の画素値)×「大きい値」}/(「小さい値」+「大きい値」)
としてもよい。例えば、A1画像上の画素で重みを「小さい値(0.3)」とされた領域のある画素において、
その画素値(=A1画像の画素値):200、
注目領域ベクトル分ずれた位置のB1画像の画素値:100、
上記注目領域ベクトル分ずれた位置のB1画像の画素の重み:0.7(=1−小さい値/(小さい値+大きい値))とすると、
(200×0.3+100×0.7)/(0.3+0.7)=130
となるので、上記「A1画像上の画素で重みを「小さい値(0.3)」とされた領域のある画素」の埋め込み値は130となる。
また、このとき、A1画像内部の重み値が「大きい値」とされた全ての画素位置(障害物8以外の領域)に対してはなんら変更しなくてもよい。
{(A1画像の画素値)×「小さい値」+(B1画像の画素値)×「大きい値」}/(「小さい値」+「大きい値」)
としてもよい。例えば、A1画像上の画素で重みを「小さい値(0.3)」とされた領域のある画素において、
その画素値(=A1画像の画素値):200、
注目領域ベクトル分ずれた位置のB1画像の画素値:100、
上記注目領域ベクトル分ずれた位置のB1画像の画素の重み:0.7(=1−小さい値/(小さい値+大きい値))とすると、
(200×0.3+100×0.7)/(0.3+0.7)=130
となるので、上記「A1画像上の画素で重みを「小さい値(0.3)」とされた領域のある画素」の埋め込み値は130となる。
また、このとき、A1画像内部の重み値が「大きい値」とされた全ての画素位置(障害物8以外の領域)に対してはなんら変更しなくてもよい。
また、この領域(障害物8以外の領域)に対し以下のように変更して埋め込んでもよい。この場合の埋め込む画素値を、
{(A1画像の画素値)×「大きい値」+(B1画像の画素値)×「小さい値」}/(「小さい値」+「大きい値」)
としてもよい。例えば、A1画像上の画素で重みを「大きい値(0.7)」とされた領域(障害物8以外の領域)のある画素において、
その画素値(=A1画像の画素値):200、
注目領域ベクトル分ずれた位置のB1画像の画素値:100、
上記注目領域ベクトル分ずれた位置のB1画像の画素の重み:0.3(=1−大きい値/(小さい値+大きい値))とすると、
(200×0.7+100×0.3)/(0.7+0.3)=170
となるので、上記「A1画像上の画素で重みを「大きい値(0.7)」とされた領域のある画素」の埋め込み値は170となる。
この他、AカメラとBカメラの視点位置の違いのためにB1画像の対応領域をそのままはめ込むと、周囲のA1画像の部分とうまくつながらず、C1画像の中ではめ込み部分(特にその境界部分)が目立ってしまうことがある。その対策として、画像加算部7において、B1画像の対応領域またはA1画像のいずれかに対してアフィン変換やその他の変形を施してから埋め込むようにすればよい。
{(A1画像の画素値)×「大きい値」+(B1画像の画素値)×「小さい値」}/(「小さい値」+「大きい値」)
としてもよい。例えば、A1画像上の画素で重みを「大きい値(0.7)」とされた領域(障害物8以外の領域)のある画素において、
その画素値(=A1画像の画素値):200、
注目領域ベクトル分ずれた位置のB1画像の画素値:100、
上記注目領域ベクトル分ずれた位置のB1画像の画素の重み:0.3(=1−大きい値/(小さい値+大きい値))とすると、
(200×0.7+100×0.3)/(0.7+0.3)=170
となるので、上記「A1画像上の画素で重みを「大きい値(0.7)」とされた領域のある画素」の埋め込み値は170となる。
この他、AカメラとBカメラの視点位置の違いのためにB1画像の対応領域をそのままはめ込むと、周囲のA1画像の部分とうまくつながらず、C1画像の中ではめ込み部分(特にその境界部分)が目立ってしまうことがある。その対策として、画像加算部7において、B1画像の対応領域またはA1画像のいずれかに対してアフィン変換やその他の変形を施してから埋め込むようにすればよい。
以上のように、この実施の形態1によれば、ディスパリティ算出部3により、2つのカメラを使用して異なる地点から概ね同じ視野に対し撮影した2つの画像A1,B1に基づいて、A1画像上の画素ごとのディスパリティ値を算出し、重み設定部4で、算出されたディスパリティ値に応じてA1画像の画素ごとに大小いずれかの重み値を設定し、注目領域抽出部5によりA1画像上で注目領域を設定し、注目領域ベクトル算出部6により、注目領域に対応するB1画像上の対応領域を算出し、これら注目領域と対応領域の位置関係を表す注目領域ベクトルを算出し、画像加算部7において、設定された画素ごとの重み値と注目領域ベクトルに基づいて、A1画像上の画素で重み値が小に設定された画素位置に、注目領域ベクトル分ずれたB1画像上の位置の画素値を抽出して加算して画像を生成するようにしている。したがって、最低2つの視点から撮影した画像の各1枚ずつから、その1つの画像内にある障害物を透視し、その影に隠れている領域を見えるようにした画像を生成できる。また、その透視した領域を鮮明に表示することができる。また、1つのカメラで異なる時刻に撮影された2つの映像を用いて、その動いている部分を注目領域と設定するようにしているので、動く人物など、注目すべき被写体をうまく表示することが可能となる。
なお、上記例では、AカメラとBカメラの性能が等しく、両者が水平に配置され、かつその視線方向が平行である場合について説明したが、これらの設定が正確になされていなくても、AカメラとBカメラで撮影したそれぞれ画像に対して予め上記条件を満たすように画像を変形処理してから、ディスパリティ算出部3、注目領域抽出部5、画像加算部7での処理を行うようにしても、同様な効果が得られる。
また、画素ごとにSSDなどのステレオマッチングや動き領域検出を行っていたが、画素を幾つかまとめたブロックごとにSSDなどを行ってもよい。また、ステレオマッチングで求めたディスパリティや動き領域に対し、平滑化処理を施してもよい。さらに、障害物領域に対し、重み値を「小さい値」とすることで、障害物領域の識別と、重み値の設定を、同時に可能としているが、障害物領域の判定を別のパラメータで行ってもよく、重み値は別に判定できるようにしてもよい。特に、重み値として「0」の場合は、障害物領域が区別できればよい。
また、画素ごとにSSDなどのステレオマッチングや動き領域検出を行っていたが、画素を幾つかまとめたブロックごとにSSDなどを行ってもよい。また、ステレオマッチングで求めたディスパリティや動き領域に対し、平滑化処理を施してもよい。さらに、障害物領域に対し、重み値を「小さい値」とすることで、障害物領域の識別と、重み値の設定を、同時に可能としているが、障害物領域の判定を別のパラメータで行ってもよく、重み値は別に判定できるようにしてもよい。特に、重み値として「0」の場合は、障害物領域が区別できればよい。
実施の形態2.
上記実施の形態1では、注目領域の設定の際、画像内で動いている領域を注目領域としたが、もし注目領域としたい物体が動いていない場合には、適切な画像を生成することができない。この実施の形態2では、この問題を解決する手段を与える。
図6はこの発明の実施の形態2による画像生成装置の機能構成を示すブロック図である。図において、図1に相当する部分には同一符号を付し、原則としてその説明を省略する。この実施の形態2では、図1の注目領域抽出部5に代って注目領域抽出部12が設けられている。この実施の形態2の注目領域抽出部12は、保持するしきい値の条件を満たすディスパリティ算出部3で得られたA1画像上の画素ごとのディスパリティ値の中で、保持するしきい値による条件を満たすディスパリティ値の画素で構成される領域を注目領域とし抽出する手段である。
上記実施の形態1では、注目領域の設定の際、画像内で動いている領域を注目領域としたが、もし注目領域としたい物体が動いていない場合には、適切な画像を生成することができない。この実施の形態2では、この問題を解決する手段を与える。
図6はこの発明の実施の形態2による画像生成装置の機能構成を示すブロック図である。図において、図1に相当する部分には同一符号を付し、原則としてその説明を省略する。この実施の形態2では、図1の注目領域抽出部5に代って注目領域抽出部12が設けられている。この実施の形態2の注目領域抽出部12は、保持するしきい値の条件を満たすディスパリティ算出部3で得られたA1画像上の画素ごとのディスパリティ値の中で、保持するしきい値による条件を満たすディスパリティ値の画素で構成される領域を注目領域とし抽出する手段である。
次に、動作について説明する。
注目領域抽出部12では、ディスパリティ算出部3から出力されたA1画像上の画素ごとのディスパリティ値を保持しているしきい値を用いて調べる。そのしきい値は、例えば「30」と「10」の上下値を持ち、ディスパリティ値が「30」以下かつ「10」を超える場合に、注目領域と判断する。その注目領域の抽出方法を図7に示す。A1画像とB1画像とから得られた図7(a)のディスパリティマップAで、ディスパリティ値は、薄い灰色、濃い灰色、黒の順に「50」、「20」、「5」であるから、しきい値「30」と「10」の間に入るのは濃い灰色の部分の値となる。その条件を満たすディスパリティ値をマップ化すると図7(b)に示されるような注目領域マップA2となる。図7(b)では、注目領域マップA2は、設定された注目領域が薄い灰色で、それ以外の領域が黒で示されている。
注目領域ベクトル算出部6が注目領域抽出部12で設定された注目領域マップA2から注目領域ベクトルを算出する方法は実施の形態1と同じであり、それ以降の動作も同じである。
注目領域抽出部12では、ディスパリティ算出部3から出力されたA1画像上の画素ごとのディスパリティ値を保持しているしきい値を用いて調べる。そのしきい値は、例えば「30」と「10」の上下値を持ち、ディスパリティ値が「30」以下かつ「10」を超える場合に、注目領域と判断する。その注目領域の抽出方法を図7に示す。A1画像とB1画像とから得られた図7(a)のディスパリティマップAで、ディスパリティ値は、薄い灰色、濃い灰色、黒の順に「50」、「20」、「5」であるから、しきい値「30」と「10」の間に入るのは濃い灰色の部分の値となる。その条件を満たすディスパリティ値をマップ化すると図7(b)に示されるような注目領域マップA2となる。図7(b)では、注目領域マップA2は、設定された注目領域が薄い灰色で、それ以外の領域が黒で示されている。
注目領域ベクトル算出部6が注目領域抽出部12で設定された注目領域マップA2から注目領域ベクトルを算出する方法は実施の形態1と同じであり、それ以降の動作も同じである。
以上のように、この実施の形態2によれは、注目領域抽出部12が、ディスパリティ算出部3で得られたA1画像上の画素ごとのディスパリティ値の中で、上下のしきい値内に入るディスパリティ値の画素で構成される領域を注目領域として抽出するようにしたので、注目領域としたい物体が動いていなくても、ディスパリティ値に応じて注目領域を設定することができる。この実施の形態2の場合、上記ディスパリティ値はその対応する画素値のカメラからの距離に依存する値であるため、カメラからの距離が一定の範囲にある領域を注目領域として設定できることになる。したがって、実施の形態2の注目領域抽出部12を、実施の形態1の注目領域抽出部5と組み合わせることで、例えば動いているものが複数あった場合に、それらのうちでカメラからの距離が一定の範囲内にある物体が写っている領域を注目領域とすることも可能である。
また、実施の形態1や実施の形態2では、注目領域を画像内の画像全体から抽出したが、これを画面中央部分や右半分などと画像の範囲を限って抽出してもよい。例えば図7(c)のように、注目領域範囲マップAでは、注目領域は画面内部で薄い灰色で示した範囲として示される。また、図7(d)の注目領域マップA3では、図7(c)の注目領域範囲マップAを設定した上で、この注目領域範囲と実施の形態2の注目領域抽出部12によって設定された図7(b)の注目領域が一致した領域を、薄い灰色が設定された注目領域として示している。
また、実施の形態1や実施の形態2では、ディスパリティや注目領域、注目領域ベクトルを画素単位で探索しているが、1/2画素や1/4画素単位などより細かい単位で探索してもよい。また2画素や4画素など、粗い単位で探索することも可能である。したがって、この発明の解釈にあたっては、請求項の記載において、対応する「画素」については上記の単位で置き換えたものをも含むこととする。
また、実施の形態1や実施の形態2では、ディスパリティや注目領域、注目領域ベクトルを画素単位で探索しているが、1/2画素や1/4画素単位などより細かい単位で探索してもよい。また2画素や4画素など、粗い単位で探索することも可能である。したがって、この発明の解釈にあたっては、請求項の記載において、対応する「画素」については上記の単位で置き換えたものをも含むこととする。
実施の形態3.
図8はこの発明の実施の形態3による画像生成装置の機能構成を示すブロック図である。図において、図1に相当する部分には同一符号を付し、原則としてその説明を省略する。
この実施の形態3のディスパリティ算出部3では、実施の形態1と同じようにAカメラで撮影された画像(この場合はA3画像)の画素のディスパリティ値を算出するが、加えてBカメラで撮影されたB2画像の画素のディスパリティ値も算出するようにしている。また、画像加算部14は、実施の形態1の画像加算部7の代わりに設けられ、画像加算部7の加算処理の際に、B2画像のディスパリティ値が保持するしきい値を超える画素についてはA3画像の重み値が小に設定された画素位置に加算しないようして画像の生成を行う。
図9は実施の形態3に係る撮影方法と処理画像を示しており、効果的な構図における画像撮影の様子と、そのときのAカメラ1で撮影されたA3画像、ディスパリティマップA3、重みマップA2およびBカメラで撮影されたB2画像の関係を示している。図10は算出されたA3画像のディスパリティマップA2、重みマップA2、B2画像のディスパリティマップBを示している。
図8はこの発明の実施の形態3による画像生成装置の機能構成を示すブロック図である。図において、図1に相当する部分には同一符号を付し、原則としてその説明を省略する。
この実施の形態3のディスパリティ算出部3では、実施の形態1と同じようにAカメラで撮影された画像(この場合はA3画像)の画素のディスパリティ値を算出するが、加えてBカメラで撮影されたB2画像の画素のディスパリティ値も算出するようにしている。また、画像加算部14は、実施の形態1の画像加算部7の代わりに設けられ、画像加算部7の加算処理の際に、B2画像のディスパリティ値が保持するしきい値を超える画素についてはA3画像の重み値が小に設定された画素位置に加算しないようして画像の生成を行う。
図9は実施の形態3に係る撮影方法と処理画像を示しており、効果的な構図における画像撮影の様子と、そのときのAカメラ1で撮影されたA3画像、ディスパリティマップA3、重みマップA2およびBカメラで撮影されたB2画像の関係を示している。図10は算出されたA3画像のディスパリティマップA2、重みマップA2、B2画像のディスパリティマップBを示している。
次に動作について説明する。
上記実施の形態1および実施の形態2では、A1画像の重み値が「0」の領域に対し、注目領域ベクトルに相当する分だけずれたB1画像の対応領域の画像データをはめ込むことで画像を生成していた。この方法を図9(a)に示すように、ぬいぐるみ9の前に障害物8の他に障害物13がある構図の場合に適用すると図11に示すようになる場合がある。つまり、注目領域ベクトルに相当する分だけずれた位置にある、図11(b)の画像B2上の対応領域をはめ込むことになるため、図11(a)のA3画像内部の障害物8の領域には、図11(b)の画像B2の障害物13の領域が埋め込まれ、図11(c)に示す画像Cが生成される。このため、生成された画像Cでは、障害物13に相当する領域では障害物は消去され、ぬいぐるみの足が見えるようになるが、障害物8に相当する領域では、本来無かった障害物13がはめ込まれた結果、現実とは異なる画像が生成されてしまうことになる。
上記実施の形態1および実施の形態2では、A1画像の重み値が「0」の領域に対し、注目領域ベクトルに相当する分だけずれたB1画像の対応領域の画像データをはめ込むことで画像を生成していた。この方法を図9(a)に示すように、ぬいぐるみ9の前に障害物8の他に障害物13がある構図の場合に適用すると図11に示すようになる場合がある。つまり、注目領域ベクトルに相当する分だけずれた位置にある、図11(b)の画像B2上の対応領域をはめ込むことになるため、図11(a)のA3画像内部の障害物8の領域には、図11(b)の画像B2の障害物13の領域が埋め込まれ、図11(c)に示す画像Cが生成される。このため、生成された画像Cでは、障害物13に相当する領域では障害物は消去され、ぬいぐるみの足が見えるようになるが、障害物8に相当する領域では、本来無かった障害物13がはめ込まれた結果、現実とは異なる画像が生成されてしまうことになる。
これに対し、この実施の形態3では、画像加算部14において、図9(d)または図10(c)の重みマップA2で示されるA3画像の重み値「0」の領域を埋めるための領域を、図10(d)または(d’)のB2画像から取り込む際に、図10(e)に示すB2画像のディスパリティマップBでB2画像の画素のディスパリティ値を確認する。この場合、B2画像のディスパリティ値が、例えば保持しているしきい値「30」より大きかった場合、A3画像上の注目領域に対応するB2画像上の対応領域の画像データでは無いと判断して、その画素をA3画像の重み値が小に設定された画素位置への埋め込みを行わないように制御する。すなわち、図10(e)の障害物に相当する薄い灰色の領域(ディスパリ値:50>30)は埋め込みに使用されない。これにより、図11(d)に示すように、実施の形態3の画像データC2では、障害物8は消去できないものの、その部分に障害物13が埋め込まれるような現実にない画像が生成されることを防いでいる。
以上のように、この実施の形態3によれば、画像加算部14において、Aカメラ1のA3画像のディスパリティマップに加え、Bカメラ2のB2画像のディスパリティマップも使用し、B2画像の画素のディスパリティ値が所定のしきい値を超える場合には、その画素をA3画像の埋め込み対象として外すようにしたので、現実とは異なる画像が生成されるのを防ぐことができる。
実施の形態4.
図12はこの発明の実施の形態4による画像生成装置の機能構成を示すブロック図である。図において、図1に相当する部分には同一符号を付し、原則としてその説明を省略する。
この実施の形態4では、実施の形態1の注目領域抽出部5と注目領域ベクトル算出部6は用いず、新たにディスパリティ補間部15を備えている。また、画像加算部7の代わりに画像加算部16を備えている。
このディスパリティ補間部15は、ディスパリティ算出部3で算出されたA1画像上の画素ごとのディスパリティ値に対して、重み設定部4で設定された画素の重み値が「0」(または小さい値)の画素については、その画素のディスパリティ値を周辺の画素のディスパリティ値で置き換える、または平均化するなどの方法で求め、補間する手段である。画像加算部16は、A1画像から重み設定部4で重み値が「0」(または小さい値)に設定された領域に、ディスパリティ補間部15で補間したディスパリティ値分離れたB1画像の位置の画素値を加算することにより画像を生成する手段である。
図13はAカメラで撮影されたA1画像、ディスパリティマップA、その重みマップA、補間されたディスパリティマップA、およびBカメラで撮影された画像B1とそれらを用いて障害物を消去したC3画像の関係を示している。
図12はこの発明の実施の形態4による画像生成装置の機能構成を示すブロック図である。図において、図1に相当する部分には同一符号を付し、原則としてその説明を省略する。
この実施の形態4では、実施の形態1の注目領域抽出部5と注目領域ベクトル算出部6は用いず、新たにディスパリティ補間部15を備えている。また、画像加算部7の代わりに画像加算部16を備えている。
このディスパリティ補間部15は、ディスパリティ算出部3で算出されたA1画像上の画素ごとのディスパリティ値に対して、重み設定部4で設定された画素の重み値が「0」(または小さい値)の画素については、その画素のディスパリティ値を周辺の画素のディスパリティ値で置き換える、または平均化するなどの方法で求め、補間する手段である。画像加算部16は、A1画像から重み設定部4で重み値が「0」(または小さい値)に設定された領域に、ディスパリティ補間部15で補間したディスパリティ値分離れたB1画像の位置の画素値を加算することにより画像を生成する手段である。
図13はAカメラで撮影されたA1画像、ディスパリティマップA、その重みマップA、補間されたディスパリティマップA、およびBカメラで撮影された画像B1とそれらを用いて障害物を消去したC3画像の関係を示している。
次に動作について説明する。
重み設定部4では、実施の形態1でも説明したように、ディスパリティ算出部3で生成された図13(b)に示すA1画像のディスパリティマップAをしきい値処理することにより障害物領域に重み値「0」(または小さい値)を設定し、図13(c)に示す重みマップAを作成する。ディスパリティ補間部14では、画素の重み値を「0」(または小さい値)に設定された図13(b)のディスパリティマップA上の領域(薄い灰色の部分)を、その領域の周辺の画素のディスパリティ値で置き換えて補間し、図13(d)に示すような補間ディスパリティマップAを生成する。この補間方法は、重みマップAで重み値が「0」に設定された領域(黒色の部分)の周囲のディスパリティ値を図13(b)のディスパリティマップAから得て、それらを平均化することで求められる。このとき線形補間などの関数を用いて補間値を生成してもよい。また、2つのカメラ配置が水平方向であることを考慮し、重みマップAで示された障害物領域に対し、特に水平方向のディスパリティ値を優先的に使用して補間を行ってもよい。このほか、どのような方法でもよい。
次に、画像加算部16では、図13(c)の重み値マップAにより、A1画像上の重み設定部4で重み値「0」に設定された領域を認識し、その領域を埋める画像データを、補間ディスパリティマップAで示されたディスパリティ値分離れた位置の図13(e)に示すようなB1画像の画素値で埋めることで、図13(f)の生成画像C2を生成する。
重み設定部4では、実施の形態1でも説明したように、ディスパリティ算出部3で生成された図13(b)に示すA1画像のディスパリティマップAをしきい値処理することにより障害物領域に重み値「0」(または小さい値)を設定し、図13(c)に示す重みマップAを作成する。ディスパリティ補間部14では、画素の重み値を「0」(または小さい値)に設定された図13(b)のディスパリティマップA上の領域(薄い灰色の部分)を、その領域の周辺の画素のディスパリティ値で置き換えて補間し、図13(d)に示すような補間ディスパリティマップAを生成する。この補間方法は、重みマップAで重み値が「0」に設定された領域(黒色の部分)の周囲のディスパリティ値を図13(b)のディスパリティマップAから得て、それらを平均化することで求められる。このとき線形補間などの関数を用いて補間値を生成してもよい。また、2つのカメラ配置が水平方向であることを考慮し、重みマップAで示された障害物領域に対し、特に水平方向のディスパリティ値を優先的に使用して補間を行ってもよい。このほか、どのような方法でもよい。
次に、画像加算部16では、図13(c)の重み値マップAにより、A1画像上の重み設定部4で重み値「0」に設定された領域を認識し、その領域を埋める画像データを、補間ディスパリティマップAで示されたディスパリティ値分離れた位置の図13(e)に示すようなB1画像の画素値で埋めることで、図13(f)の生成画像C2を生成する。
以上のように、この実施の形態4によれば、算出されたA1画像上の画素ごとのディスパリティ値とそれに対して、設定した画素の重み値が「0」(または小さい値)の画素については、ディスパリティ補間部15により、その画素のディスパリティ値を周辺の画素のディスパリティ値で置き換えることで補間し、画像加算部16では、その補間されたA1画像の領域に、その領域のディスパリティ値(=補間されたディスパリティ値)だけずれた位置の、B1画像の画素値を、ディスパリティ補間部15で加算することにより画像を生成するようにしたので、2つのカメラで撮影された画像から、障害物を消去した画像を生成することができる。障害物の領域のディスパリティ値を、周囲のディスパリティ値で補間することでその障害物の領域を推定するため、他の実施の形態で行っている注目領域ベクトルを別途算出する必要がない。また、障害物の領域が注目領域以外にかぶさっていて、障害物の領域に隠されている領域のディスパリティ値を注目領域のディスパリティでは正しく推定できない場合があるが、このような場合でも、この実施の形態4によれば、障害物を消去した良好な画像を生成することができる。
以上説明してきた各実施の形態では、2つのカメラを使用してステレオマッチングを行ってディスパリティを算出していたが、3つ以上のカメラで撮影された画像を使用して、同じ画素のディスパリティを、異なるカメラの組み合わせで算出したディスパリティと比較することで、そのディスパリティの精度を高めることも可能である。また、2つのカメラを使用した場合に、1つのカメラでしか撮影されなかったためディスパリティを算出できなかった領域の画素のディスパリティを、別のカメラから撮影した画像を利用することで、ディスパリティを算出できるようにしてもよい。
1 Aカメラ、2 Bカメラ、3 ディスパリティ算出部、4 重み設定部、5,12 注目領域抽出部、6 注目領域ベクトル算出部、7,14,16 画像加算部、8,13 障害物、9 ぬいぐるみ、10 ダルマ、11 背景、15 ディスパリティ補間部。
Claims (8)
- 少なくとも2つのカメラを使用して異なる地点から概ね同じ視野に対し撮影した2つの画像に基づいて、前記2つの画像のうちの少なくとも一方の画像上の画素ごとのディスパリティ値を算出するディスパリティ算出部と、
前記ディスパリティ値に応じて前記一方の画像の画素ごとに大小いずれかの重み値を設定する重み設定部と、
前記一方の画像上で注目領域を設定する注目領域抽出部と、
設定された前記注目領域に対応する他方の画像上の対応領域を算出し、これら注目領域と対応領域の位置関係を表す注目領域ベクトルを算出する注目領域ベクトル算出部と、
前記設定された画素ごとの重み値と前記算出された注目領域ベクトルに基づいて、前記一方の画像上の画素で重み値が小に設定された画素位置に、前記注目領域ベクトル分ずれた前記他方の画像上の位置の画素値を抽出して加算することにより画像を生成する画像加算部とを備えたことを特徴とする画像生成装置。 - 重み設定部は、ディスパリティ算出部で算出された画素ごとのディスパリティ値が、保持するしきい値以上の場合には対応する画素に重み値0を設定し、当該しきい値以下の場合には重み値1を設定することを特徴とする請求項1記載の画像生成装置。
- 注目領域抽出部は、一方の画像と、当該画像の撮影直後に同じカメラで再び撮影した画像との間で動きのある画素が検出された場合に、当該動きのある画素に対応する領域を注目領域として抽出することを特徴とする請求項1記載の画像処理装置。
- 注目領域ベクトル算出部は、注目領域抽出部が抽出した注目領域の画素数が少ない場合、それ以前に撮影された画像から抽出された注目領域に基づいて算出した注目領域ベクトルを画像加算部に出力することを特徴とする請求項3記載の画像処理装置。
- 画像加算部は、2つの画像の加算を行う際、他方の画像上の位置の画素値を、一方の画像上の画素の重み値を考慮して加算することを特徴とする請求項1または請求項2記載の画像生成装置。
- 注目領域抽出部は、ディスパリティ算出部で得られた一方の画像上の画素ごとのディスパリティ値の中で、保持するしきい値による条件を満たすディスパリティ値の画素で構成される領域を注目領域として抽出することを特徴とする請求項1または請求項2記載の画像生成装置。
- ディスパリティ算出部は、2つの画像に基づいて一方の画像上の画素のディスパリティ値に加え、他方の画像上の画素のディスパリティ値を算出し、
画像加算部は、前記他方の画像の画素のディスパリティ値が保持するしきい値を超える画素については、前記一方の画像の重み値が小に設定された画素位置に加算しないようにしたことを特徴とする請求項1から請求項6うちのいずれか1項記載の画像生成装置。 - 少なくとも2つのカメラを使用して異なる地点から概ね同じ視野に対し撮影した2つの画像に基づいて、前記2つの画像のうちの一方の画像上の画素ごとのディスパリティ値を算出するディスパリティ算出部と、
前記ディスパリティ値に応じて前記一方の画像の画素ごとに大小いずれかの重み値を設定する重み設定部と、
前記一方の画像上の画素ごとのディスパリティ値に対して、前記重み設定部で重み値が小さい値に設定された画素の領域を、その画素の領域の周辺の画素のディスパリティ値で置き換えることで補間するディスパリティ補間部と、
前記一方の画像上の前記重み設定部で重み値が小に設定された領域に、前記ディスパリティ補間部で補間したディスパリティ値分離れた他方の画像の位置の画素値を加算することにより画像を生成する画像加算部とを備えたことを特徴とする画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005237665A JP2007053621A (ja) | 2005-08-18 | 2005-08-18 | 画像生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005237665A JP2007053621A (ja) | 2005-08-18 | 2005-08-18 | 画像生成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007053621A true JP2007053621A (ja) | 2007-03-01 |
Family
ID=37917759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005237665A Pending JP2007053621A (ja) | 2005-08-18 | 2005-08-18 | 画像生成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007053621A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010533338A (ja) * | 2007-07-12 | 2010-10-21 | トムソン ライセンシング | 2次元画像からの3次元オブジェクト認識システム及び方法 |
WO2011033668A1 (ja) * | 2009-09-18 | 2011-03-24 | 株式会社 東芝 | 視差画像生成装置 |
WO2011125461A1 (ja) * | 2010-04-06 | 2011-10-13 | 富士フイルム株式会社 | 画像生成装置及び方法並びにプリンタ |
JP2012019517A (ja) * | 2010-07-06 | 2012-01-26 | Samsung Electronics Co Ltd | ディスプレイ方法および装置 |
JP2012257198A (ja) * | 2011-05-17 | 2012-12-27 | Canon Inc | 立体画像符号化装置、その方法、および立体画像符号化装置を有する撮像装置 |
JP2015502058A (ja) * | 2011-11-04 | 2015-01-19 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | マルチスペクトル撮像システム |
JP2015175644A (ja) * | 2014-03-13 | 2015-10-05 | 株式会社リコー | 測距システム、情報処理装置、情報処理方法及びプログラム |
JP2017098906A (ja) * | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
WO2018173183A1 (ja) * | 2017-03-23 | 2018-09-27 | 三菱電機株式会社 | 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム |
-
2005
- 2005-08-18 JP JP2005237665A patent/JP2007053621A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010533338A (ja) * | 2007-07-12 | 2010-10-21 | トムソン ライセンシング | 2次元画像からの3次元オブジェクト認識システム及び方法 |
US8427488B2 (en) | 2009-09-18 | 2013-04-23 | Kabushiki Kaisha Toshiba | Parallax image generating apparatus |
WO2011033668A1 (ja) * | 2009-09-18 | 2011-03-24 | 株式会社 東芝 | 視差画像生成装置 |
JP5209121B2 (ja) * | 2009-09-18 | 2013-06-12 | 株式会社東芝 | 視差画像生成装置 |
WO2011125461A1 (ja) * | 2010-04-06 | 2011-10-13 | 富士フイルム株式会社 | 画像生成装置及び方法並びにプリンタ |
CN102835118A (zh) * | 2010-04-06 | 2012-12-19 | 富士胶片株式会社 | 图像生成装置、方法及打印机 |
JP2012019517A (ja) * | 2010-07-06 | 2012-01-26 | Samsung Electronics Co Ltd | ディスプレイ方法および装置 |
JP2012257198A (ja) * | 2011-05-17 | 2012-12-27 | Canon Inc | 立体画像符号化装置、その方法、および立体画像符号化装置を有する撮像装置 |
JP2015502058A (ja) * | 2011-11-04 | 2015-01-19 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | マルチスペクトル撮像システム |
US9692991B2 (en) | 2011-11-04 | 2017-06-27 | Qualcomm Incorporated | Multispectral imaging system |
JP2015175644A (ja) * | 2014-03-13 | 2015-10-05 | 株式会社リコー | 測距システム、情報処理装置、情報処理方法及びプログラム |
JP2017098906A (ja) * | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
WO2018173183A1 (ja) * | 2017-03-23 | 2018-09-27 | 三菱電機株式会社 | 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム |
JPWO2018173183A1 (ja) * | 2017-03-23 | 2019-06-27 | 三菱電機株式会社 | 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
JP5156837B2 (ja) | 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法 | |
JP6016061B2 (ja) | 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム | |
CN111050210B (zh) | 执行操作的方法、视频处理系统及非瞬态计算机可读介质 | |
US9117310B2 (en) | Virtual camera system | |
US8433157B2 (en) | System and method for three-dimensional object reconstruction from two-dimensional images | |
RU2504010C2 (ru) | Способ и устройство заполнения зон затенения карты глубин или несоответствий, оцениваемой на основании по меньшей мере двух изображений | |
CA2650557C (en) | System and method for three-dimensional object reconstruction from two-dimensional images | |
EP2291825B1 (en) | System and method for depth extraction of images with forward and backward depth prediction | |
JP2007053621A (ja) | 画像生成装置 | |
JP4658223B2 (ja) | 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体 | |
KR100931311B1 (ko) | 프레임 간 깊이 연속성 유지를 위한 깊이 추정 장치 및 그방법 | |
US20110110583A1 (en) | System and method for depth extraction of images with motion compensation | |
JP5015126B2 (ja) | 画像生成方法、画像認証方法、画像生成装置、画像認証装置、プログラム、および記録媒体 | |
KR20140108828A (ko) | 카메라 트래킹 장치 및 방법 | |
KR20100119559A (ko) | 2d 이미지 데이터를 스테레오스코픽 이미지 데이터로 변환하기 위한 방법 및 시스템 | |
KR20090052889A (ko) | 이미지들로부터 깊이 맵을 결정하기 위한 방법 및 깊이 맵을 결정하기 위한 디바이스 | |
JP6173218B2 (ja) | 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法 | |
CN113711276A (zh) | 尺度感知单目定位和地图构建 | |
JP2014035597A (ja) | 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法 | |
JP5906165B2 (ja) | 仮想視点画像合成装置、仮想視点画像合成方法及び仮想視点画像合成プログラム | |
CN112565623A (zh) | 一种动态图像显示系统 | |
KR20140067253A (ko) | 영상 처리 장치 및 방법 | |
JP4775221B2 (ja) | 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム | |
Liu | Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071004 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080624 |