JP2012122816A - 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム - Google Patents

3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム Download PDF

Info

Publication number
JP2012122816A
JP2012122816A JP2010273001A JP2010273001A JP2012122816A JP 2012122816 A JP2012122816 A JP 2012122816A JP 2010273001 A JP2010273001 A JP 2010273001A JP 2010273001 A JP2010273001 A JP 2010273001A JP 2012122816 A JP2012122816 A JP 2012122816A
Authority
JP
Japan
Prior art keywords
image
dimensional
dimensional information
feature amount
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010273001A
Other languages
English (en)
Inventor
Kaori Kataoka
香織 片岡
Li Tian
黎 田
Akira Suzuki
章 鈴木
Masashi Morimoto
正志 森本
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010273001A priority Critical patent/JP2012122816A/ja
Publication of JP2012122816A publication Critical patent/JP2012122816A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】被写体を2次元で表現する画像に基づき被写体の3次元空間内における奥行きを示す3次元情報の検出精度を高めること。
【解決手段】3次元の対象物を2次元で表わす画像の画像データを入力する画像入力ステップと、前記画像データに基づき前記画像の特徴量を示す特徴量情報を、前記画像を複数個に分割した分割エリア毎に取得する特徴量取得ステップと、3次元の対象物を2次元で表わす画像内における任意のサンプリングポイント毎に、当該サンプリングポイントの画像の特徴量を示すサンプリングポイント特徴量情報と、仮想3次元空間において前記対象物を表現した場合の前記サンプリングポイント同士の水平方向の間隔を示す3次元情報とをそれぞれ対応付ける3次元情報テーブルを参照して、前記特徴量情報が示す前記分割エリアの画像の特徴量と対応する前記3次元情報を取得する3次元情報取得ステップと、を含むことを特徴とする。
【選択図】図1

Description

本発明は、被写体を2次元で表わす画像データに基づき被写体の3次元空間内における奥行きを示す3次元情報を取得する3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラムに関するものである。
一枚の写真の画像データからエッジ抽出をおこない、透視投影モデルを利用して消失点の位置を推定し、推定される消失点に基づき、3次元空間における被写体の位置を示す3次元情報を算出する手法がある(例えば、非特許文献1参照)。
これは、建物を直方体と仮定して、エッジ抽出によりテクスチャが変化する境界部分(以下、エッジという)を抽出し、このエッジが立方体である建物の一辺を構成しているとの考えによるものである。よって、非特許文献1において、テクスチャが変化する境界部分の直線を延ばした仮想線が消失線であり、この仮想線である消失線の交わるところが消失点であると仮定し、奥行きを示す3次元情報を算出する。
情報処理学会研究報告.CVIM,"1枚の画像からの3次元復元の統計的最適化",2004(113),117-124,2004-11-11.
しかしながら、被写体として屋内を撮影した場合、天井や壁のほかにも、看板や空調といった建物を構成している面以外の物体が数多く存在している。このため、複数のエッジの中から消失点を形成するエッジを見分けるのが難しく、正しく消失点を出すのは困難である。
つまり、このような被写体を含む画像に基づき検出されたエッジには、建物を構成する面の消失線以外の直線も含まれているため、これら複数のエッジから建物の3次元空間を表わす消失点を取得することが困難であるという問題があった。
本発明は、上記課題を解決するものであり、被写体を2次元で表現する画像に基づき被写体の3次元空間内における奥行きを示す3次元情報の検出精度を高める3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラムを提供することを目的とする。
上述の課題を鑑み、本発明に係る3次元情報取得方法は、本発明に係る3次元の対象物を2次元で表わす画像の画像データを入力する画像入力ステップと、前記画像データに基づき前記画像の特徴量を示す特徴量情報を、前記画像を複数個に分割した分割エリア毎に取得する特徴量取得ステップと、3次元の対象物を2次元で表わす画像内における任意のサンプリングポイント毎に、当該サンプリングポイントの画像の特徴量を示すサンプリングポイント特徴量情報と、仮想3次元空間において前記対象物を表現した場合の前記サンプリングポイント同士の水平方向の間隔を示す3次元情報とをそれぞれ対応付ける3次元情報テーブルを参照して、前記特徴量情報が示す前記分割エリアの画像の特徴量と対応する前記3次元情報を取得する3次元情報取得ステップと、を含むことを特徴とする。
上述の3次元情報取得方法において、前記サンプリングポイントは、前記画像内において画像のテクスチャが変化する境界部分に対応する画素であることを特徴とする。
上述の3次元情報取得方法は、前記対象物を2次元の画像内において立体的に表現するための立体モデルデータを参照して、前記3次元情報に基づき、前記対象物を立体的に表現した2次元の画像データを作成する立体画像作成ステップとをさらに備えることを特徴とする。
上述の3次元情報取得方法は、前記特徴量取得ステップにおいて、エッジを検出し、前記立体画像作成ステップにおいて、検出されたエッジのうち、最も長さが長いエッジとこのエッジに対応するエッジに基づき、前記対象物の3次元空間を示す消失点を算出することを特徴とする。
上述の3次元情報取得方法は、前記立体画像作成ステップにおいて、検出されたエッジに基づき、画像内のオブジェクトを検出することを特徴とする。
上述の課題を鑑み、本発明に係る3次元情報取得装置は、3次元の対象物を2次元で表わす画像の画像データを入力する画像入力手段と、前記画像データに基づき前記画像の特徴量を示す特徴量情報を、前記画像を複数個に分割した分割エリア毎に取得する特徴量取得手段と、3次元の対象物を2次元で表わす画像内における任意のサンプリングポイント毎に、当該サンプリングポイントの画像の特徴量を示すサンプリングポイント特徴量情報と、仮想3次元空間において前記対象物を表現した場合の前記サンプリングポイント同士の水平方向の間隔を示す3次元情報とをそれぞれ対応付ける3次元情報テーブルを参照して、前記特徴量情報が示す前記分割エリアの画像の特徴量と対応する前記3次元情報を取得する3次元情報取得手段と、を含むことを特徴とする。
上述の課題を鑑み、本発明に係る3次元情報取得プログラムは、コンピュータに、上述に記載のステップを実行させるための3次元情報取得プログラムであることを特徴とする。
本発明によると、被写体を2次元で表現する画像に基づき被写体の3次元空間内における奥行きを示す3次元情報の検出精度を高めることができる。
本発明の実施形態に係る3次元情報取得システムの構成の一例を示すブロック図である。 本発明の実施形態に係る3次元情報テーブルの一例を示す図である。 本発明の実施形態に係る学習用の撮影画像と特徴量画像の一例を示す図である。 本発明の実施形態に係る照合手段の構成の一例を示す図である。 本発明の実施形態に係る奥行推定値生成の一例について説明するための図である。 本発明の実施形態に係る奥行推定値生成の他の例について説明するための図である。
[第1実施形態]
以下、本発明の一実施形態にかかる3次元情報取得システムの一例について説明する。図1は、本実施形態にかかる3次元情報取得システムの構成の一例を示すブロック図である。
図1に示す通り、3次元情報取得システムは、3次元情報データベース生成装置100と、3次元情報データベース200と、3次元情報取得装置300とを含む。この3次元情報取得装置300は、画像入力手段301と、照合手段302と、出力手段303とを含む。
本実施形態にかかる3次元情報取得システムにおいて、3次元情報データベース生成装置100は、ある構造体である対象物Oを撮影した学習画像の画像データに基づき、仮想3次元空間における撮影地点からの対象物Oの奥行きを示す3次元情報(奥行き情報)と、学習画像の特徴量を示す特徴量情報とを対応付けた3次元情報テーブルを作成し、3次元情報データベース200に記憶させる。この3次元情報と特徴量情報は、対象物Oにおける任意の部分(以下、サンプリングポイントという)毎に取得され、3次元情報テーブルにおいてサンプリングポイント毎に対応づけられている。本実施形態において、3次元情報として、奥行きを示す奥行き情報を例に以下説明するが、本発明はこれに限られず、仮想3次元空間における対象物Oのサンプリングポイント同士の水平方向の距離を示す情報であればよい。
なお、3次元情報データベース生成装置100は、3次元情報テーブルを作成するための学習用データである学習画像の画像データとして、対象物Oを撮影した画像を1枚または複数枚用意する。つまり、3次元情報データベース生成装置100は、対象物Oを撮影した学習画像の画像データに基づき、画像内における対象物Oの画像特徴量と仮想3次元空間における水平方向における対象物Oのサンプリングポイント同士の距離とを紐付けるテーブルを事前に作成する。
3次元情報取得装置300の画像入力手段301は、対象物Oを撮影した対象画像の画像データを、例えばカメラ等の外部装置から入力する。この対象画像は、3次元情報取得装置300による3次元情報を取得する対象の画像である。
3次元情報取得装置300の照合手段302は、画像入力手段301から入力する対象画像の画像データに基づき画像の特徴量を示す特徴量情報を算出し、3次元情報テーブルを参照して、対象画像の特徴量に対応する3次元情報(奥行き情報)を取得する。
3次元情報取得装置300の出力手段303は、取得した3次元情報に基づき対象画像内のおける対象物Oの仮想3次元空間を推定して、2次元の画像内において対象物Oを立体的に表わした立体画像を作成して出力する。この出力手段303は、例えば、自身の記憶部に記憶されている対象物Oを2次元の画像内において立体的に表現するための立体モデルデータを参照して、照合手段302から入力する3次元情報に基づき、対象物Oを立体的に表現した2次元の立体画像の画像データを作成する。
本実施形態にかかる「ある構造の対象物O」は、図建物内の廊下や通路といった面で構成されている建造物の内部である。以下に学習画像の画像データとして、このような構造を有する対象物Oが撮影されて得られた画像データが、3次元情報データベース生成装置100に入力された場合について説明する。
次に、3次元情報データベース生成装置100の構成について詳細に説明する。
3次元情報データベース生成装置100は、画像上の任意の各点(サンプリングポイントP1〜Pn)の特徴量情報と各点(サンプリングポイントP1〜Pn)のもつ奥行き情報とを対応づけて3次元情報テーブルを作成する。
この3次元情報テーブルの一例を図2に示す。図2に示す通り、3次元情報テーブルは、例えば、画像内における対象物Oの任意のサンプリングポイントP1〜Pn毎に、このサンプリングポイントP1〜Pnの画像の特徴量を示す特徴量情報と、2次元の画像から予測される仮想3次元空間内における対象物Oのサンプリングポイント同士の水平方向の間隔を表わす3次元情報とをそれぞれ対応付けるテーブルである。
このサンプリングポイントP1〜Pnは、学習画像のエッジ部分に対応する位置であることが好ましい。この場合、サンプリングポイントP1〜Pnの特徴量情報は、画像のエッジ部分に対応する位置の画素値であり、サンプリングポイントP1〜Pnにおける奥行き情報は、当該学習画像が撮影された際の撮影位置からの実空間におけるサンプリングポイントP1〜Pnに対応する位置までの距離を示す。
また、3次元情報データベース生成装置100は、学習画像の画像データに基づき画像の特徴量を算出し、この特徴量が示す画像のテクスチャが変化する境界部分を示す箇所をサンプリングポイントP1〜Pnとして決定する。3次元情報データベース生成装置100は、このサンプリングポイントP1〜Pnにおける特徴量として、例えば、画像テクスチャを示すテクスチャ情報を算出する。なお、このサンプリングポイントP1〜Pnは、画像のテクスチャが変化する境界部分の位置や、エッジ検出により検出されるエッジ等の構造体である対象物Oにおける辺に相当する部分を示すものであってもよい。また、このサンプリングポイントP1〜Pnは、画像のテクスチャが変化する境界部分やエッジにより区分された構造体である対象物Oにおける面に相当する部分を示すものであってもよい。
また、3次元情報データベース生成装置100は、例えば、当該学習画像が撮影された位置から対象物Oとの距離を計測するレーザー等の距離計から対象物Oと撮影位置との距離を示す距離情報を入力する。この3次元情報データベース生成装置100は、距離情報に基づき、実空間におけるサンプリングポイントP1〜Pnに対応する位置と撮影位置との距離を算出し、この距離により仮想3次元空間における対象物Oの水平方向の位置関係を示す奥行き情報を3次元情報として算出する。
3次元情報データベース生成装置100は、上述のようにして算出したテクスチャ情報(特徴量情報)と奥行き情報(3次元情報)とを、サンプリングポイントP1〜Pn毎に対応付けて、3次元情報テーブルを作成する。
テクスチャ情報(特徴量情報)について説明する。このテクスチャ情報としては、仮想3次元空間内におけるサンプリングポイントP1〜Pn間の水平方向の間隔(距離)や位置関係を示す奥行き情報に応じて変化する特徴量を用いることが望ましい。画像上のサンプリングポイントP1〜Pn毎のテクスチャ情報は、画素値でもよい。
例えば、エッジ強度は、画像内における奥行きが遠くなるほど小さくなる性質がある。よって、3次元情報データベース生成装置100は、入力する学習画像の画像データに対してエッジ検出を行いエッジ画像を作成する。このエッジ画像により得られるエッジ強度をテクスチャ情報としてもよい。なお、エッジ画像やエッジ強度の算出方法は、非特許文献2にある方法でもよいし、独自に算出式を設けて予め3次元情報データベース生成装置100の記憶部保存しておき、3次元情報データベース生成装置100が、この算出式に基づきエッジ強度等を算出するものであってもよい。
<非特許文献2> 画像標準テキストブック 画像処理標準テキストブック編集委員会監修 平成9年発行財団法人画像情報教育振興協会 p.176
また、3次元情報データベース生成装置100は、エッジ強度の値そのものだけをテクスチャ情報とするものであってもよく、予め基準点として決められているエッジ強度と各点(サンプリングポイントP1〜Pn)でのエッジ強度との比率をテクスチャ情報としてもよい。
また、3次元情報データベース生成装置100は、奥行きが遠くなるほど濃淡値が薄くなることを利用し、基準点と各点(サンプリングポイントP1〜Pn)との濃淡値の比率を用いてテクスチャ情報を算出するものであってもよい。
さらに、3次元情報データベース生成装置100は、ハフ変換等により線分を検出し、検出された線分上のみの画素値やエッジ強度をテクスチャ情報として算出するものであってもよい。
さらに、3次元情報データベース生成装置100は、奥行きに応じて変化する適切な特徴量であれば、それをテクスチャ情報として用いてよい。また、3次元情報データベース生成装置100は、画素値とエッジ強度との両方をテクスチャ情報として生成するなど、複数の値をテクスチャ情報として生成するものであってもよい。
次に、3次元情報データベース200において、テクスチャ情報(特徴量情報)と対応付けられる奥行き情報(3次元情報)について説明する。この奥行き情報は、レーザー等の距離計で取得した値でもよく、また手動でサンプリングポイント間の相対的な距離を入力した値でもよい。奥行き情報は、仮想3次元空間内における座標でもよく、サンプリングポイント間における相対的な奥行き(距離・間隔)のみを示す値等でもよい。
次に、3次元情報データベース200について説明する。この3次元情報データベース200は、3次元情報データベース生成装置100によって生成された3次元情報テーブルを記憶する。つまり、3次元情報データベース200は、上記のようにして得られた画像上のサンプリングポイントP1〜Pnのテクスチャ情報(特徴量情報)とサンプリングポイントP1〜Pnの奥行き情報(3次元情報)とをセットで記憶する。
このテクスチャ情報とその奥行き情報とのセットを有する3次元情報テーブルの一例について、図3を参照して説明する。図3(a)は、3次元情報データベース生成装置100の学習用の撮影画像D10の一例を示す図である。図3(b)は、学習用の撮影画像の特徴量を示す特徴量画像D12の一例を示す図である。
図3(b)に示す特徴量画像D12は、3次元情報データベース生成装置100によるエッジ検出によって生成された画像の明るさに応じた変化を示すエッジ画像である。この特徴量画像D12において、薄い色(ここでは無色)の直線で示す部分がエッジであり、破線で囲まれた部分に1つのエッジが存在している。
本実施形態において、3次元情報テーブルは、この特徴量画像D12中の白い点線で囲まれたエッジ上のエッジ強度(特徴量情報)と奥行き情報(3次元情報)とを対応付けたテーブルである。この奥行き情報は、サンプリングポイントP1〜Pnと撮影位置とのそれぞれの距離を相対的に示す相対値であって、撮影者からの奥行きを示している。図3(b)に示す通り、エッジ強度は、撮影位置から遠ざかるほど、つまり、奥行値が大きくなるほど、エッジ強度が弱くなっている。なお、エッジ強度は、薄い色で示すほど強く、濃い色で示す部分ほど弱い。このように、3次元情報データベース生成装置100は、3次元情報テーブルにおける特徴量情報として、奥行きに応じて変化するテクスチャ情報を用いることが望ましい。
なお、本実施形態において、3次元情報テーブルは、特徴量情報としてのテクスチャ情報と、3次元情報としての奥行き情報と対応づけるテーブルを例に説明したが、本発明はこれに限定されない。つまり、3次元情報データベース生成装置100は、3次元情報として、奥行きと連動する値ではなく撮影位置からの距離を2値化した情報で割り当てるものであってもよい。
例えば、3次元情報データベース生成装置100は、学習画像の撮影地点から予め決められた距離よりも遠ざかっている面に存在するサンプリングポイントの3次元情報としては「1」を、撮影地点に平行な面に存在するサンプリングポイントであってあまり撮影位置からの距離が変化しない場合や、撮影位置から予め決められた距離もよりも撮影位置に近い面に存在するサンプリングポイントの3次元情報としては「0」を、それぞれ割り振ってもよい。
また、3次元情報データベース生成装置100は、ハフ変換等により検出された線分上のエッジ強度を調べ、エッジ強度の変化量が大きい場合は3次元情報として「1」を、エッジ強度が線分上でほぼ変化しない場合は3次元情報として「0」を、それぞれ割り振っても良い。なお、3次元情報データベース生成装置100は、このときの変化量の閾値を経験的あるいは実験的得られた値を設定してもよいし、学習画像の画像データからエッジ強度などのテクスチャ情報の線分上における変化量とその頻度のヒストグラムを作成し、判別分析法などにより閾値を決定してもよい。
次に、3次元情報取得装置300の照合手段302について説明する。
照合手段302は、図4に示すように、特徴量画像作成手段(特徴量取得手段)321とテクスチャ情報比較手段(3次元情報取得手段)322と奥行推定値算出手段323とを含む。
特徴量画像作成手段321は、入力する対象画像から3次元情報テーブルの作成時と同様の特徴量画像を作成する。たとえば、3次元情報データベース200に登録されている特徴量情報がエッジ画像から取得されたエッジ強度である場合、この特徴量画像作成手段322は、対象画像の画像データに基づき、特徴量画像としてエッジ画像を生成し、エッジ強度を求める。
テクスチャ情報比較手段322は、特徴量画像の各点(以下、照合ポイントP1〜Pnという)でのテクスチャ情報と3次元情報データベース200内の特徴量情報(テクスチャ情報)とを比較し、マッチするデータを検索する。
図2に示す3次元情報テーブルを例にとると、あるサンプリングポイントP1では、そのエッジ強度「510」と、3次元情報「1」とが対応付けられている。この3次元情報テーブルのように、特徴量情報(エッジ強度)が連続値で求められ、3次元情報(奥行き情報)が離散的であった場合、テクスチャ情報比較手段322は、この3次元情報テーブルを参照して、特徴量画像作成手段321によって取得された画像特徴量(エッジ強度)に対応する3次元情報(奥行き情報)を検索する。
このテクスチャ情報比較手段322は、例えば、特徴量画像作成手段321によって取得された画像特徴量(エッジ強度)と最も近傍する画像特徴量(エッジ強度)を3次元情報テーブルから探索し、その画像特徴量(エッジ強度)に対応する3次元情報(奥行き情報)を取得するものであっても良い。また、テクスチャ情報比較手段322は、線形補間法により連続的に画像特徴量(エッジ強度)と3次元情報(奥行き情報)との関係を推定してもよい。また他にも、テクスチャ情報比較手段322は、例えば、基準点と各点でのエッジ強度の比をもとに検索を行ってもよい。また、テクスチャ情報比較手段322は、ハフ変換等により線分を検出し、画像中の一番長い線分に注目し、その線分の端点を基準点とし、エッジ上の各点のエッジ強度と基準点でのエッジ強度との比を観測する。各点のエッジ強度比と値の近いエッジ強度比を奥行データベース上で検索してもよい。
その他、特徴量画像作成手段321は、3次元情報データベース200に、エッジ画像から得られたテクスチャ情報が特徴量情報として保持されている場合、入力する対象画像の画像データに基づきエッジ画像を作成し、テクスチャ情報比較手段322に出力する。このテクスチャ情報比較手段322は、この対象画像に基づくエッジ画像と、学習画像に基づくエッジ画像から得られた3次元情報テーブルにおけるエッジ強度とのそれぞれの複数画素の集合からなる小領域どうしの正規化相関値を求め、正規化相関値が1に近くなるよう特徴量情報(テクスチャ情報)の検索をおこなってもよい。
奥行推定値算出手段323は、検索においてマッチしたテクスチャ情報に割り振られている奥行き情報を用いて、適切な奥行推定値を割り当てる。つまり、奥行推定値算出手段323は、3次元情報テーブルにおける3次元情報(奥行き情報)の値に対応する奥行きとして予め決められている奥行推定値を参照して、現実空間における奥行きの長さを取得する。3次元情報(奥行き情報)の値に対応する奥行きとして予め決められている奥行推定値は、予め3次元情報データベース200に保存されている。
次に、出力手段303について説明する。
出力手段303は、入力画像中の全点(照合ポイントP1〜Pn)において奥行推定値を算出したときは、その奥行推定値に基づいて、立体表示を出力してもよい。この奥行推定値の一例について、図5を参照して説明する。
図5(a)は、対象画像D20における壁と天井の境界部分を示すエッジ501を示す。
図5(a)において、点線で示すエッジ501は、対象画像D20から検出された最も長い直線である。このエッジ501は、一方の端に照合ポイントP51を、他の端に照合ポイントP52を有する。
図5(b)は、撮影位置と奥行きについて説明する図である。図5(b)に示す通り、x軸−y軸で規定される面が撮影位置と平行な面である。z軸は、奥行きを示す。図5(b)に示す仮想3次元空間502は、対象画像D20に含まれる対象物Oの立体空間を示す。
出力手段303は、照合手段302によって取得された3次元情報に基づき、対象画像内の照合ポイントP51とP52を仮想3次元空間502内の座標(x,y,z)で示す奥行推定値を算出し、立体画像を作成する。
また、出力手段303は、ハフ変換により検出した線分上の各点の奥行推定値を算出した場合、シーンの構造を推定することが可能となる。例えば、撮影地点からみて遠ざかっている直線(奥行きのある直線)とカメラ位置に対して平行な直線(奥行きのない直線)が存在する場合、出力手段303は、奥行きのある直線は天井と壁の境界線とする。また、出力手段303は、カメラ位置に対して平行な直線は、カメラに対して平行な面を形成していると推定し、擬似的な立体表現をしてもよい。
さらに、出力手段303は、立方体モデルを基本モデル保持し、線分を立方体の各線分に割り振ってもより、立方体モデルに対応させて出力してもよい。
また、出力手段303は、奥行推定値を利用して、セグメンテーションをすることも可能である。例えば、画像中の看板を抽出したい場合、看板と向き合って撮影した画像が(撮影地点に平行に立っていると分かっている場合)、カメラ位置に対して平行な直線群を抽出し、看板抽出をおこない、看板にあたる領域を出力してもよい。
このセグメンテーションについて、図6を参照して説明する。図6(a)は、対象画像D30を示す。図6(b)は、この対象画像D30から検出された複数のエッジ601〜606を示す。
照合手段302は、図6(b)に示す通り、最も長さが長いエッジ601に基づき、照合ポイントP61と照合ポイントP62を選択し、3次元情報データベース200の3次元情報テーブルを参照して、この照合ポイントP61と照合ポイントP62の特徴量と対応する3次元情報を取得し、出力手段303に出力する。また、照合手段302は、検出した全てのエッジ601〜606を示す情報を出力手段303に出力する。
この出力手段303は、この3次元情報に基づき、この照合ポイントP61と照合ポイントP62に対応する奥行推定値を算出する。また、出力手段303は、エッジ601〜606を示す情報に基づき、図5(b)に示したような仮想3次元空間内502におけるx軸あるいはy軸の値が一定あるいはほぼ一定(ずれが予め決められた一定の許容範囲内)となるエッジがあるいか否かを判断する。ここで、出力手段302は、x軸の値が一定であるエッジ605と、y軸の値が一定であるエッジ606とを検出する。そして、出力手段302は、このエッジ605と606とで規定される画像領域が看板にあたる領域であると判断する。
なお、出力手段303は、エッジ605とエッジ606のように、各直線の一端が接触しており、1つの閉じられた領域を構成する画像領域607を、画像内におけるオブジェクトとして検出するものであってもよい。また、出力手段303は、エッジ601〜606によって画像内の領域を分割し、分割された分割領域をオブジェクトとして検出してもよい。
また、出力手段302は、検出したエッジ601〜606のうち、最も長さが長いエッジ601を選択し、このエッジ601の角度等に応じて、消失点を算出するためのエッジを選択する。本実施形態において、エッジ601を伸ばした仮想線と、エッジ604を伸ばした仮想線とが交わる箇所が消失点であることが予め決められて、自身が内蔵するメモリに記録されている。出力手段302は、このメモリ内の情報を参照して、消失点をの位置を算出することができる。
本発明に係る3次元情報取得装置300によれば、ある構造をもつ対象物O(本実施形態においては、風景シーン)を撮影した学習画像を用いて3次元情報テーブルを学習させることによって、一枚の非立体画像(つまり、奥行き情報が不明な2次元画像)から奥行き情報を推定することができる。これによって、2次元の画像から擬似的に立体画像を生成することはもちろん、奥行き情報を用いて画像のセグメンテーションを行い、所望の領域を抽出することも可能となる。
また、上述の通り、本発明は、ある構造体である対象物Oを撮影した学習画像とその画像の奥行き情報とを学習用データとして1枚または複数枚用意し、画像上の各点のテクスチャ情報とその点のもつ奥行き情報とのセットを3次元情報テーブルとして作成する。入力画像中の各画素、または線分上の各点のテクスチャ情報と、3次元情報テーブル上のテクスチャ情報とを比較し、該当する奥行き情報を当該画素値または各点に与える。
これにより、消失点を算出したい場合でも、エッジ上の各点の奥行き情報を算出することにより、消失点を形成するエッジをより正確に抽出することが可能となり、精密に消失点の位置を算出することが可能となる。また、3次元情報テーブルを用意することにより、奥行き情報が与えられていない一枚の画像からであっても、ある程度の奥行き精度を保つことが可能となる。
なお、上述の3次元情報データベース生成装置100および3次元情報取得装置300は、内部にコンピュータシステムを有している。そして、3次元情報データベース生成装置100および3次元情報取得装置300の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいう「コンピュータシステム」とは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、図1に示す3次元情報データベース生成装置100および3次元情報取得装置300の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
100・・・3次元情報データベース生成装置、200・・・3次元情報データベース、300・・・3次元情報取得装置、301・・・画像入力手段、302・・・照合手段、303・・・出力手段、321・・・特徴量画像作成手段(特徴量取得手段)、322・・・テクスチャ情報比較手段(3次元情報取得手段)、323・・・奥行推定値生成手段

Claims (7)

  1. 3次元の対象物を2次元で表わす画像の画像データを入力する画像入力ステップと、
    前記画像データに基づき前記画像の特徴量を示す特徴量情報を、前記画像を複数個に分割した分割エリア毎に取得する特徴量取得ステップと、
    3次元の対象物を2次元で表わす画像内における任意のサンプリングポイント毎に、当該サンプリングポイントの画像の特徴量を示すサンプリングポイント特徴量情報と、仮想3次元空間において前記対象物を表現した場合の前記サンプリングポイント同士の水平方向の間隔を示す3次元情報とをそれぞれ対応付ける3次元情報テーブルを参照して、前記特徴量情報が示す前記分割エリアの画像の特徴量と対応する前記3次元情報を取得する3次元情報取得ステップと、
    を含むことを特徴とする3次元情報取得方法。
  2. 前記サンプリングポイントは、前記画像内において画像のテクスチャが変化する境界部分に対応する画素であることを特徴とする請求項1に記載の3次元情報取得方法。
  3. 前記対象物を2次元の画像内において立体的に表現するための立体モデルデータを参照して、前記3次元情報に基づき、前記対象物を立体的に表現した2次元の画像データを作成する立体画像作成ステップとをさらに備えることを特徴とする請求項1あるいは2に記載の3次元情報取得方法。
  4. 前記特徴量取得ステップにおいて、エッジを検出し、
    前記立体画像作成ステップにおいて、検出されたエッジのうち、最も長さが長いエッジとこのエッジに対応するエッジに基づき、前記対象物の3次元空間を示す消失点を算出することを特徴とする請求項3に記載の3次元情報取得方法。
  5. 前記立体画像作成ステップにおいて、検出されたエッジに基づき、画像内のオブジェクトを検出することを特徴とする請求項4に記載の3次元情報取得方法。
  6. 3次元の対象物を2次元で表わす画像の画像データを入力する画像入力手段と、
    前記画像データに基づき前記画像の特徴量を示す特徴量情報を、前記画像を複数個に分割した分割エリア毎に取得する特徴量取得手段と、
    3次元の対象物を2次元で表わす画像内における任意のサンプリングポイント毎に、当該サンプリングポイントの画像の特徴量を示すサンプリングポイント特徴量情報と、仮想3次元空間において前記対象物を表現した場合の前記サンプリングポイント同士の水平方向の間隔を示す3次元情報とをそれぞれ対応付ける3次元情報テーブルを参照して、前記特徴量情報が示す前記分割エリアの画像の特徴量と対応する前記3次元情報を取得する3次元情報取得手段と、
    を含むことを特徴とする3次元情報取得装置。
  7. コンピュータに
    請求項1〜5のうちいずれか一項に記載のステップを実行させるための3次元情報取得プログラム。
JP2010273001A 2010-12-07 2010-12-07 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム Pending JP2012122816A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010273001A JP2012122816A (ja) 2010-12-07 2010-12-07 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010273001A JP2012122816A (ja) 2010-12-07 2010-12-07 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム

Publications (1)

Publication Number Publication Date
JP2012122816A true JP2012122816A (ja) 2012-06-28

Family

ID=46504405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010273001A Pending JP2012122816A (ja) 2010-12-07 2010-12-07 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム

Country Status (1)

Country Link
JP (1) JP2012122816A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107784269A (zh) * 2017-08-29 2018-03-09 深圳依偎控股有限公司 一种3d视频帧特征点提取的方法及系统
WO2018172881A1 (ja) * 2017-03-24 2018-09-27 株式会社半導体エネルギー研究所 半導体装置、表示システム及び電子機器
US10436898B2 (en) 2013-12-26 2019-10-08 Hitachi, Ltd. Object recognition device
JP2019528826A (ja) * 2016-09-23 2019-10-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像再構成による加齢黄斑変性症を予測するための方法、実行可能プログラムを記憶するコンピュータ可読メモリ、および装置
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181024A (ja) * 1993-12-24 1995-07-18 Canon Inc 3次元形状計測方法および装置
JP2005228195A (ja) * 2004-02-16 2005-08-25 Nissan Motor Co Ltd 障害物検知装置
JP2006308514A (ja) * 2005-05-02 2006-11-09 Fukui Prefecture 路面の画像処理型積雪センサー及び積雪検出方法
JP2007293558A (ja) * 2006-04-25 2007-11-08 Hitachi Ltd 目標物認識プログラム及び目標物認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181024A (ja) * 1993-12-24 1995-07-18 Canon Inc 3次元形状計測方法および装置
JP2005228195A (ja) * 2004-02-16 2005-08-25 Nissan Motor Co Ltd 障害物検知装置
JP2006308514A (ja) * 2005-05-02 2006-11-09 Fukui Prefecture 路面の画像処理型積雪センサー及び積雪検出方法
JP2007293558A (ja) * 2006-04-25 2007-11-08 Hitachi Ltd 目標物認識プログラム及び目標物認識装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
US10436898B2 (en) 2013-12-26 2019-10-08 Hitachi, Ltd. Object recognition device
JP2019528826A (ja) * 2016-09-23 2019-10-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像再構成による加齢黄斑変性症を予測するための方法、実行可能プログラムを記憶するコンピュータ可読メモリ、および装置
WO2018172881A1 (ja) * 2017-03-24 2018-09-27 株式会社半導体エネルギー研究所 半導体装置、表示システム及び電子機器
JPWO2018172881A1 (ja) * 2017-03-24 2020-06-11 株式会社半導体エネルギー研究所 半導体装置、表示システム及び電子機器
US10984703B2 (en) 2017-03-24 2021-04-20 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device, display system which corrects image data, and electronic device
JP7143278B2 (ja) 2017-03-24 2022-09-28 株式会社半導体エネルギー研究所 半導体装置
CN107784269A (zh) * 2017-08-29 2018-03-09 深圳依偎控股有限公司 一种3d视频帧特征点提取的方法及系统
WO2019041447A1 (zh) * 2017-08-29 2019-03-07 深圳依偎控股有限公司 一种3d视频帧特征点提取的方法及系统

Similar Documents

Publication Publication Date Title
Meister et al. When can we use kinectfusion for ground truth acquisition
EP3168812B1 (en) System and method for scoring clutter for use in 3d point cloud matching in a vision system
Jain et al. Exploiting global connectivity constraints for reconstruction of 3D line segments from images
CN107392958B (zh) 一种基于双目立体摄像机确定物体体积的方法及装置
Picos et al. Accurate three-dimensional pose recognition from monocular images using template matched filtering
US10223839B2 (en) Virtual changes to a real object
Takimoto et al. 3D reconstruction and multiple point cloud registration using a low precision RGB-D sensor
JP2013232195A5 (ja)
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
US10438405B2 (en) Detection of planar surfaces for use in scene modeling of a captured scene
Khoshelham et al. Indoor mapping eyewear: geometric evaluation of spatial mapping capability of HoloLens
US10198533B2 (en) Registration of multiple laser scans
CN107463659B (zh) 物体搜索方法及其装置
EP3304500B1 (en) Smoothing 3d models of objects to mitigate artifacts
JP2012122816A (ja) 3次元情報取得方法、3次元情報取得装置、および3次元情報取得プログラム
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
US20160245641A1 (en) Projection transformations for depth estimation
US20130147785A1 (en) Three-dimensional texture reprojection
Pinies et al. Dense mono reconstruction: Living with the pain of the plain plane
CN109978753B (zh) 绘制全景热力图的方法和装置
Zhang et al. A fast method for measuring the similarity between 3d model and 3d point cloud
Stefańczyk et al. Multimodal segmentation of dense depth maps and associated color information
US10529085B2 (en) Hardware disparity evaluation for stereo matching
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
KR20160052256A (ko) 가상 특징점을 이용하는 3차원 공간 매핑장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140408