JP2014149788A - 物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラム - Google Patents
物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラム Download PDFInfo
- Publication number
- JP2014149788A JP2014149788A JP2013019606A JP2013019606A JP2014149788A JP 2014149788 A JP2014149788 A JP 2014149788A JP 2013019606 A JP2013019606 A JP 2013019606A JP 2013019606 A JP2013019606 A JP 2013019606A JP 2014149788 A JP2014149788 A JP 2014149788A
- Authority
- JP
- Japan
- Prior art keywords
- boundary
- feature
- region
- attribute
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】対象画像の制限がなく、様々な画像に対する3次元的なオクルージョン境界の推定を行うことができる物体領域境界推定装置を提供する。
【解決手段】方向付き境界属性モデルのモデルパラメータを入力するパラメータ入力手段と、入力画像を小領域に分割する小領域分割手段と、小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力手段と、入力したパラメータと、量子化特徴量を入力し、方向付き境界属性モデルの更新を行い、更新された方向付き境界属性モデルに基づいて、領域境界のそれぞれに対して、方向付きの境界属性を付与して出力する境界属性推定手段とを備える。
【選択図】図1
【解決手段】方向付き境界属性モデルのモデルパラメータを入力するパラメータ入力手段と、入力画像を小領域に分割する小領域分割手段と、小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力手段と、入力したパラメータと、量子化特徴量を入力し、方向付き境界属性モデルの更新を行い、更新された方向付き境界属性モデルに基づいて、領域境界のそれぞれに対して、方向付きの境界属性を付与して出力する境界属性推定手段とを備える。
【選択図】図1
Description
本発明は、画像から物体の境界線を抽出して、境界線を挟んだ前後関係や上下関係といった方向を持った境界線の3次元的な性質を推定する物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラムに関する。
従来より複数視点の画像や動画像を用いることで被写体の3次元構造を推定する手法は多くあるが、1枚の画像を用いて、被写体の3次元構造を推定する問題は非常に困難である。1枚の画像による被写体物体の3次元推定に関する手法として、画像内の領域に3次元構造に関するラベル付けを行う手法や、画像内の平面の3次元的な向きを推定する手法などがある。特に、非特許文献1には、推定された3次元構造ラベルに基づいて物体のオクルージョン境界検出及び前後関係の推定を実現できることが示されている。
D.Hoiem et al. "Recovering Occlusion Boundaries from an Image," IJCV vol.91, pp.328-346, 2011.
非特許文献1に記載の技術では、画像内の領域に対して3次元構造に関するラベル付けを行い、その結果に基づき境界線の検出及び属性推定を実現している。
しかしながら、非特許文献1に記載の技術にあっては、領域のラベル付けに際して推定対象となる画像の構成に強い仮定を設けており、地面・直立物体・空の領域が画面下から上に並ぶような風景画像に対してのみ良好な推定が可能な手法である。このため、対象画像の制限がなく、様々な画像に対する3次元的なオクルージョン境界の推定を行うことはできないという問題がある。
本発明は、このような事情に鑑みてなされたもので、対象画像の制限がなく、様々な画像に対する3次元的なオクルージョン境界の推定を行うことができる物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラムを提供することを目的とする。
本発明は、入力画像を小領域に分割する小領域分割手段と、前記入力画像に応じた方向付き境界属性を入力し、前記入力画像の領域境界について隣接する双方の領域に対して、該方向付き境界属性を設定する境界属性設定手段と、前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力手段と、前記量子化特徴量と、前記領域境界について隣接する双方の領域に対して設定した前記方向付き境界属性とを入力し、方向付き境界属性モデルの学習を行った結果得られたモデルパラメータを出力するモデル推定手段とを備えることを特徴とする。
本発明は、方向付き境界属性モデルのモデルパラメータを入力するパラメータ入力手段と、入力画像を小領域に分割する小領域分割手段と、前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力手段と、入力したパラメータと、前記量子化特徴量を入力し、前記方向付き境界属性モデルの更新を行い、更新された前記方向付き境界属性モデルに基づいて、領域境界のそれぞれに対して、方向付きの境界属性を付与して出力する境界属性推定手段とを備えることを特徴とする。
本発明は、入力画像を小領域に分割する小領域分割ステップと、前記入力画像に応じた方向付き境界属性を入力し、前記入力画像の領域境界について隣接する双方の領域に対して、該方向付き境界属性を設定する境界属性設定ステップと、前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力ステップと、前記量子化特徴量と、前記領域境界について隣接する双方の領域に対して設定した前記方向付き境界属性とを入力し、方向付き境界属性モデルの学習を行った結果得られたモデルパラメータを出力するモデル推定ステップとを有することを特徴とする。
本発明は、方向付き境界属性モデルのモデルパラメータを入力するパラメータ入力ステップと、入力画像を小領域に分割する小領域分割ステップと、前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力ステップと、入力したパラメータと、前記量子化特徴量を入力し、前記方向付き境界属性モデルの更新を行い、更新された前記方向付き境界属性モデルに基づいて、領域境界のそれぞれに対して、方向付きの境界属性を付与して出力する境界属性推定ステップとを有することを特徴とする。
本発明は、コンピュータを、前記物体領域境界推定装置と機能させるための物体領域境界推定プログラムである。
本発明によれば、構図の様々な画像に対して物体境界を検出し、境界線上の前後・上下関係も推定することができるという効果が得られる。これにより、推定された境界線情報と前後関係情報は被写体の3次元的な構造情報を含むため、推定結果に基づき画像の3次元構成を復元することが可能になる。
以下、図面を参照して、本発明の一実施形態による物体領域境界推定装置を説明する。図1は同実施形態の構成を示すブロック図である。図1に示す物体領域境界推定装置は、コンピュータ装置によって構成し、パラメータ学習部11と境界属性推定部12を備えている。パラメータ学習部11は、画像データ集合と、画像内容に応じた方向付き境界属性とをセットで入力し、各種モデルパラメータを出力する。境界属性推定部12は、1枚の画像と、パラメータ学習部11によって学習されたモデルパラメータとを入力とし、検出された境界線とその境界属性(方向付き境界属性)を出力する。
パラメータ学習部11は、小領域分割部1、画像特徴生成部2、境界属性ラベル設定部3、モデル推定部4及びモデルパラメータ記憶部5を備える。モデル推定部4は、さらに、モデルパラメータ推定部41、領域トピック推定部42、学習時3次元構成トピックモデル記憶部43を備える。モデルパラメータ記憶部5は、領域・領域特徴辞書記憶部51、領域・境界辞書記憶部52、領域・境界・境界特徴辞書記憶部53を備える。
境界属性推定部12は、小領域分割部6、画像特徴生成部7及びモデル推定部8を備える。モデル推定部8は、さらに、領域・境界推定部81、境界属性統合部82、推定時3次元構成トピックモデル記憶部83を備える。
次に、図2を参照して、図1に示す画像特徴生成部2、7の詳細な構成について説明する。図2は、図1に示す画像特徴生成部2、7の詳細な構成を示すブロック図である。パラメータ学習部11に備えている画像特徴生成部2と、境界属性推定部12に備えている画像特徴生成部7は、同じ構成を備えているため、ここでは、画像特徴生成部2について説明する。画像特徴生成部2は、局所領域特徴抽出部21、大域領域特徴抽出部22、局所境界特徴抽出部23、大域境界特徴抽出部24からなる特徴抽出部25と、量子化辞書26と、量子化部27とを備える。画像特徴生成部2は、分割画像を入力し、量子化画像特徴を出力する。
次に、図1に示すパラメータ学習部11の動作を説明する。初めに、小領域分割部1は、入力画像を多数の小領域に分割する。この小領域には単一の物体のみが含まれていることを仮定しており、複数の物体が同じ小領域となることがないように十分に細かく分割する。具体的な画像分割手法としてFelzenszwalbらのGraph−based Image SegmentationやLiuらのEntropy Rate Superpixelを用いることができる。これらの画像分割手法は、公知の手法であるため、ここでは詳細な説明を省略する。
次に、画像特徴生成部2は、画像特徴を生成する。まず、局所領域特徴抽出部21は、小領域分割画像から局所領域特徴を抽出する。局所領域特徴とは、分割された小領域中からランダムに得られる特徴点から抽出される局所画像特徴ベクトルである。具体的にはSIFT特徴量やSURF特徴量といった局所勾配を表現する画像特徴量を用いる。抽出する特徴点は領域面積について一定の割合でランダムに選択する。
次に、大域領域特徴抽出部22は、小領域分割画像から大域領域特徴を抽出する。大域領域特徴とは、分割された領域全体の画素分布を示す画像特徴であり、具体的には色ヒストグラムや重心座標、テクスチャ特徴などを用いる。
次に、局所境界特徴抽出部23は、小領域分割画像から局所境界特徴を抽出する。局所境界特徴とは、分割された領域同士の境界線について、線上のランダムな点から抽出される局所画像特徴である。エッジ上の局所画像特徴として、具体的にはGeometricBlurなどを用いる。抽出する特徴点は境界線長さについて一定の割合でランダムに選択する。
次に、大域境界特徴抽出部24は、小領域分割画像から大域境界特徴を抽出する。大域境界特徴とは、分割された領域同士の境界線について、2つの領域をつなぐ1本の線全体の勾配分布を示す画像特徴を示す。具体的にはEOH特徴量のような勾配ヒストグラムを用いることができるが、その他線の長さや傾きといった線全体に関する特徴であれば同様に用いることができる。
局所領域特徴抽出部21、大域領域特徴抽出部22、局所境界特徴抽出部23、大域境界特徴抽出部24のそれぞれが抽出する画像特徴の関係を図3に示す。図3は、各画像特徴の関係を示す説明図である。
次に、量子化部27は、抽出された各画像特徴を量子化辞書26を用いて量子化する。量子化辞書26は4種それぞれの画像特徴についてクラスタリングを行うことで構築し、生成された各画像特徴のベクトル値が属するクラスタのインデックスを推定に用いる画像特徴の値とする。画像特徴生成部2によって出力される値はこれらの量子化された値である。
次に、モデル推定部4は、画像特徴生成部2から出力する画像特徴を用いて各領域・境界と各画像特徴との確率的な関係性を示すパラメータの学習を行う。図4は、モデル推定時の領域・境界の関係性を示す模式図である。画像から複数の小領域が得られており、隣接する領域間に境界が設定されている。境界属性ラベルは、境界属性ラベル設定部3によって、1つの境界について隣接する双方の領域に対して設定されており、領域同士の前後関係や上下関係を示す。各領域からは1つの大域領域特徴と複数の局所領域特徴が観測され、各境界からは1つの大域境界特徴と複数の局所境界特徴が観測される。
図5は、各要素間の確率的な関係性を示したグラフィカルモデルを示す図である。グラフィカルモデル中の枠は繰り返しを表しており、各画像の中に複数の物体領域があり、各物体領域の中に複数の小領域がある。また各小領域の中に隣接した領域数分の境界属性が設定されている。ここで物体領域とは、正解として与えられた物体境界線に基づいて得られる境界線に囲まれた領域のことを意味する。
各小領域の領域トピックはT、各境界の境界属性ラベルがUと^U(^はUの上に付く,以下同様))で示されている。^Uは領域トピックと境界属性ラベルによって決定される境界トピックであり、変換パラメータSによって決められる。観測された境界属性及び画像特徴はグレーの丸で示され、学習のために与えられるパラメータは黒い点で示している。観測された画像特徴はそれぞれ、大域領域特徴がx(g)、局所領域特徴がx(l)、大域境界特徴がy(g)、局所境界特徴がy(l)で表されている。領域・境界のラベルと特徴との確率的な関係性を示すパラメータとしてφ(g),φ(l),η(g),η(l)があり、それぞれ大域領域特徴と領域トピックの関係、局所領域特徴と領域トピックの関係、大域境界特徴と境界属性ラベルの関係、局所境界特徴と境界属性ラベルの関係を示している。
さらに、物体領域毎の領域トピックの出現頻度を示すベクトルがθで示され、隣接する領域トピックと境界属性ラベルとの関係性がξで示されている。〜θ,〜φ,〜η,〜ξ(〜はそれぞれ文字の上に付く、以下同様)はそれぞれθ,φ,η,ξを生成するディリクレ分布のパラメータを示す。また、枠の右下に書かれたNI,K,Lはそれぞれ画像の枚数、領域トピック数、境界ラベル数を示し、枠の内部がその数だけ繰り返し存在していることを意味する。
この確率モデルは生成モデルと呼ばれるが、このモデルの生成動作を説明する。まず、パラメータ〜θ,〜φ,〜η,〜ξを持つディリクレ分布によってθ,φ,η,ξを生成する。θは各領域がそれぞれのトピックに属する確率を示しており、確率θに応じて領域トピックTが生成される。次に、パラメータφ(g),φ(l)は各領域トピックに応じて各領域の画像特徴が生成される確率を示しており、それらのパラメータと領域トピックに従って領域の画像特徴x(g),x(l)が生成される。
次に、パラメータξは隣接する領域トピックの組み合わせに応じた境界属性ラベルの出現確率であり、それらによって境界属性ラベルUが生成される。生成された領域トピックT及び境界属性ラベルUと変換パラメータSによって境界トピック^Uは一意に決定される。最後に、境界トピック^Uに応じた境界特徴の出現確率を示すパラメータη(g),η(l)によって境界の画像特徴y(g),y(l)が生成されることになる。
このモデルに従って各変数の事後分布を求め、パラメータφ,η,ξを学習する。領域トピック推定部42は、モデルパラメータφ,η,ξを仮に決めた状態で画像毎の領域トピックを推定し、モデルパラメータ推定部41は全画像で推定された領域トピックに従ってモデルパラメータを更新する。各変数の事後分布を求める手法として、John Winnらの提案するVariational Message Passingを用いる。Variational Message Passingは変分ベイズ法と呼ばれる推論の枠組みにおいてグラフィカルモデルの各ノードについて隣接ノードに期待値を伝搬していくことで各ノードの事後分布を更新していく手法であり、指数型分布族に属する確率分布によって記述される確率モデルに対して汎用的に適用することができる。
Variational Message Passingに従うとパラメータ学習部11のモデルにおける各変数の更新式は以下のようになる。まず、領域トピック推定部42における画像毎に設定された変数の更新式を示す。以下で、領域トピックT及び境界属性U、境界トピック^UはそれぞれK,L,K×L次元のベクトルとして表記し、ある領域トピックがkであるとは、Tk=1でそれ以外の要素が0である状態を示す。さらに、Tの期待値をtで表す。
θの更新は以下の式に従う。
ここで、<・>は変数の期待値、Ψ(・)はディガンマ関数を示す。trkはr番目の領域Trがトピックkとなる確率を示す。α(ο)はο番目の物体領域に含まれる小領域の集合を示し、Rοは物体οの領域内の小領域数を示している。
領域トピックの期待値trは以下の式で更新される。
ここで、β(r)は領域r内の局所領域特徴のインデックス、β(b)は境界b内の局所境界特徴のインデックス、ε(r)は領域rに隣接する領域のインデックスsと、領域rに含まれる境界属性ラベルの中で、領域rとsとの境界のインデックスbとの組み合わせの集合を示す。mes(b,k)は境界トピック^Uを介した領域トピックへのメッセージを表しているが、境界トピック自体は境界属性ラベルと変換行列Skによって一意に決められるため、境界属性ラベルと境界特徴から得られるメッセージとなっている。
なお、Skは以下のような行列である。
ここで、ΟLはL×Lのゼロ行列、ΙLはL×Lの単位行列を示す。変換行列Skはk番目のブロックに単位行列が設定された行列である。
変換行列によって境界トピックの期待値^Ubは、以下のように更新される。
各画像について、十分な回数更新を行った後、モデルパラメータ推定部においてφ(g),φ(l),η(g),η(l)は各画像特徴と各トピックとの関係から以下の式によって更新される。これらは、同様の式によって更新されるため、φ(g)の更新式のみ以下に示す。
ここで、δ(a,b)はa=bの時のみ1となるディラックのδ関数を示し、Vは画像特徴の取り得る最大値を示す。
最後にξは以下の式で更新される。
ここで、Rdは画像内の領域の数を示す。
与えられた訓練画像集合について十分な回数更新を繰り返し、得られたφ,η,ξの事後分布を境界属性推定部12において用いるモデルパラメータとして、領域・領域特徴辞書記憶部51、領域・境界辞書記憶部52、領域・境界・境界特徴辞書記憶部53のそれぞれに記憶する。これにより、モデルパラメータ記憶部5には、境界属性推定部12において用いるモデルパラメータが記憶されたことになる。
次に、図1に示す境界属性推定部12の動作について説明する。図6は、境界属性推定時に用いるグラフィカルモデルを示す図である。パラメータ学習部11で用いるモデルとの違いは、入力データとして境界線情報が与えられていないため、領域トピック分布を示すθが画像全体の領域トピック分布を示しており、また境界属性ラベルが確率変数となっていることである。このモデルに従い、パラメータ学習時Aと同様にして各ノードの事後確率を推定することで、境界属性ラベルの推定を行う。パラメータ学習部11によって学習されたφ,η,ξの事後分布は、推定モデルにおける事前分布〜φ,〜η,〜ξとして用いる。パラメータ学習部11と同様にして、領域・境界推定部81においてVariational Message Passingによる各ノードの事後確率の更新を行い、境界属性統合部において同一の境界線を示す境界属性ラベルの整合性を保証する。
以下に各ノードの事後確率を更新する動作を示す。まず、θの更新は以下の式に従う。
学習時の更新式とほぼ同様であるが、画像全体の領域トピック分布について更新する。各領域トピック及び境界トピックの期待値の更新は学習時と同様である。境界属性ラベルに関しては、推定時には新たに変数となっているため分布を推定する必要がある。
領域rに含まれる領域sとの境界属性ラベルの期待値ubの更新は以下の式に従う。
ここで、elはl番目の要素が1のベクトルを示す。mes(b,l)は境界トピック^Uを介した境界属性へのメッセージを表しているが、境界トピック自体は領域トピックと変換行列Skによって一意に決められるため、領域トピックと境界特徴から得られるメッセージとなっている。上記の式のようにして領域・境界推定部において推定された境界属性ラベルの分布から、境界属性統合部において境界線を共有する2つのラベルについて整合性を保つ処理を行う。
境界属性ubに関して境界線を共有するもう1つの境界属性ub’を用いて以下のように足し合わせる。
Bは境界属性同士の双対関係を示しており、例えば前後関係を表すラベルであれば片方が手前ラベルである確率と他方が奥ラベルである確率が同一となる。
境界属性ラベルを5種類として{同一物体、前、後、上、下}とした場合、行列Bは以下のようになる。
この変換によって境界属性ub’は境界属性ubに対応した属性を持ったラベルを持つ。
その他のパラメータの更新に関しては、領域・境界推定部においてパラメータ学習時と同様の更新を行う。領域・境界推定部における各変数の更新と境界属性統合部82における処理を十分な回数繰り返し、各境界属性の事後分布を得る。計算された事後分布において最大の確率を持つラベルが推定結果として出力される。
図7は、様々なレイアウトを持つ写真を用いて境界属性推定を行った適用例を示す図である。これは、本手法によるパラメータ学習を境界属性の付与された250枚の画像に対して行い、得られたパラメータに基づいて訓練データとは異なる画像に適用した結果を示している。図7において、水色線が‘手前’、青線が‘奥’、赤線が‘上’、黄線が‘下’を示している。人手によって与えられた正解と比較して、おおよそ正しい境界属性が得られていることがわかる。
以上説明したように、物体領域境界推定装置をパラメータ学習部と境界属性推定部から構成するようにした。そして、パラメータ学習部と境界属性推定部のそれぞれに小領域分割部と画像特徴生成部、モデル推定部を設け、小領域分割部において入力画像を細かい領域と境界に分割し、画像特徴生成部で得られた領域・境界に応じた画像特徴を得るようにした。最後にモデル推定部において、パラメータ学習時であればパラメータの推定、境界属性推定時であれば境界属性の推定を行うようにした。推定に用いるモデルは、画像内の各小領域の持つ潜在変数と領域境界の持つラベル、さらに各領域・境界に属する画像特徴との確率的関係性を記述した生成モデルを導入した。この生成モデルに基づき、確率的に最も尤もらしい領域トピックと境界属性の組み合わせを算出することで、領域情報を加味した高精度な境界属性推定を実現することができる。
特に、本実施形態では、予め正解となる境界線情報が付与された画像集合を訓練データとしてその画像特徴などを学習し、学習されたパラメータを用いて入力画像に対する推定を行えるようにした。これを実現するために、1本の境界線に対して2つのラベルを設定することで、前後・上下などの方向性を持つ境界属性を確率モデルによって表現するようにした。また、学習時に方向付き境界属性情報と画像特徴に基づいて、同様の3次元構造を持つ領域をトピックとして抽出するようにした。このように、方向付き境界属性を推定し、また方向付き境界属性に応じたトピック抽出を行うために、1本の境界線に対して2つの境界属性ノードを持つ確率モデルを持つことになる。またモデルパラメータとして領域・境界・境界特徴辞書を持ち、推定処理において境界属性統合部を備えた。
これにより、画像から物体の境界線を抽出して、境界線を挟んだ前後関係や上下関係といった方向を持った境界線の3次元的な性質を推定する際に、訓練データの境界線情報から領域の3次元構造に関するトピックを抽出し、領域トピックと境界ラベルの同時推定によって精度よく境界検出及び分類を行うことができる。
なお、図1におけるパラメータ学習部11と境界属性推定部12の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより物体領域境界推定処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
画像から物体の境界線を抽出して、境界線を挟んだ前後関係や上下関係といった方向を持った境界線の3次元的な性質を推定する技術において、訓練データの境界線情報から領域の3次元構造に関するトピックを抽出し、領域トピックと境界ラベルの同時推定によって精度よく境界検出及び分類を行うことが不可欠な用途に適用できる。
11・・・パラメータ学習部、1・・・小領域分割部、2・・・画像特徴生成部、3・・・境界属性ラベル設定部、4・・・モデル推定部、41・・・モデルパラメータ推定部、42・・・領域トピック推定部、43・・・学習時3次元構成トピックモデル記憶部、5・・・モデルパラメータ記憶部、51・・・領域・領域特徴辞書記憶部、52・・・領域・境界辞書記憶部、53・・・領域・境界・境界特徴辞書記憶部、12・・・境界属性推定部、6・・・小領域分割部、7・・・画像特徴生成部、8・・・モデル推定部、81・・・領域・境界推定部、82・・・境界属性統合部、83・・・推定時3次元構成トピックモデル記憶部
Claims (5)
- 入力画像を小領域に分割する小領域分割手段と、
前記入力画像に応じた方向付き境界属性を入力し、前記入力画像の領域境界について隣接する双方の領域に対して、該方向付き境界属性を設定する境界属性設定手段と、
前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力手段と、
前記量子化特徴量と、前記領域境界について隣接する双方の領域に対して設定した前記方向付き境界属性とを入力し、方向付き境界属性モデルの学習を行った結果得られたモデルパラメータを出力するモデル推定手段と
を備えることを特徴とする物体領域境界推定装置。 - 方向付き境界属性モデルのモデルパラメータを入力するパラメータ入力手段と、
入力画像を小領域に分割する小領域分割手段と、
前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力手段と、
入力したパラメータと、前記量子化特徴量を入力し、前記方向付き境界属性モデルの更新を行い、更新された前記方向付き境界属性モデルに基づいて、領域境界のそれぞれに対して、方向付きの境界属性を付与して出力する境界属性推定手段と
を備えることを特徴とする物体領域境界推定装置。 - 入力画像を小領域に分割する小領域分割ステップと、
前記入力画像に応じた方向付き境界属性を入力し、前記入力画像の領域境界について隣接する双方の領域に対して、該方向付き境界属性を設定する境界属性設定ステップと、
前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力ステップと、
前記量子化特徴量と、前記領域境界について隣接する双方の領域に対して設定した前記方向付き境界属性とを入力し、方向付き境界属性モデルの学習を行った結果得られたモデルパラメータを出力するモデル推定ステップと
を有することを特徴とする物体領域境界推定方法。 - 方向付き境界属性モデルのモデルパラメータを入力するパラメータ入力ステップと、
入力画像を小領域に分割する小領域分割ステップと、
前記小領域毎に、局所領域特徴、大域領域特徴、局所境界特徴及び大域境界特徴を抽出し、それぞれの特徴を量子化した量子化特徴量を出力する画像特徴出力ステップと、
入力したパラメータと、前記量子化特徴量を入力し、前記方向付き境界属性モデルの更新を行い、更新された前記方向付き境界属性モデルに基づいて、領域境界のそれぞれに対して、方向付きの境界属性を付与して出力する境界属性推定ステップと
を有することを特徴とする物体領域境界推定方法。 - コンピュータを、請求項1または2に記載の物体領域境界推定装置と機能させるための物体領域境界推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013019606A JP2014149788A (ja) | 2013-02-04 | 2013-02-04 | 物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013019606A JP2014149788A (ja) | 2013-02-04 | 2013-02-04 | 物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014149788A true JP2014149788A (ja) | 2014-08-21 |
Family
ID=51572683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013019606A Pending JP2014149788A (ja) | 2013-02-04 | 2013-02-04 | 物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014149788A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019220163A (ja) * | 2018-06-06 | 2019-12-26 | コグネックス・コーポレイション | ビジョンシステムでラインを検出するためのシステム及び方法 |
US11699283B2 (en) | 2015-11-02 | 2023-07-11 | Cognex Corporation | System and method for finding and classifying lines in an image with a vision system |
US11854173B2 (en) | 2015-11-02 | 2023-12-26 | Cognex Corporation | System and method for finding lines in an image with a vision system |
-
2013
- 2013-02-04 JP JP2013019606A patent/JP2014149788A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11699283B2 (en) | 2015-11-02 | 2023-07-11 | Cognex Corporation | System and method for finding and classifying lines in an image with a vision system |
US11854173B2 (en) | 2015-11-02 | 2023-12-26 | Cognex Corporation | System and method for finding lines in an image with a vision system |
JP2019220163A (ja) * | 2018-06-06 | 2019-12-26 | コグネックス・コーポレイション | ビジョンシステムでラインを検出するためのシステム及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10733431B2 (en) | Systems and methods for optimizing pose estimation | |
JP6395158B2 (ja) | シーンの取得画像を意味的にラベル付けする方法 | |
CN109086683B (zh) | 一种基于点云语义增强的人手姿态回归方法和系统 | |
Zhao et al. | Dd-cyclegan: Unpaired image dehazing via double-discriminator cycle-consistent generative adversarial network | |
US8958630B1 (en) | System and method for generating a classifier for semantically segmenting an image | |
WO2017209307A1 (en) | Method and system for generating multimodal digital image | |
RU2716322C2 (ru) | Репродуцирующая аугментация данных изображения | |
CN111670457A (zh) | 动态对象实例检测、分割和结构映射的优化 | |
WO2020087564A1 (zh) | 三维物体重建方法、计算机设备及存储介质 | |
JP5766620B2 (ja) | 物体領域検出装置、方法、及びプログラム | |
JP2023533907A (ja) | 自己注意ベースのニューラルネットワークを使用した画像処理 | |
CN109903315A (zh) | 用于光流预测的方法、装置、设备以及可读存储介质 | |
WO2023024653A1 (zh) | 图像处理方法、图像处理装置、电子设备以及存储介质 | |
JP6389742B2 (ja) | 画像セグメンテーション方法、装置、及びプログラム | |
JP2014149788A (ja) | 物体領域境界推定装置、物体領域境界推定方法及び物体領域境界推定プログラム | |
Wang et al. | A contrastive learning based unsupervised multi-view stereo with multi-stage self-training strategy | |
US10445921B1 (en) | Transferring motion between consecutive frames to a digital image | |
US20230145498A1 (en) | Image reprojection and multi-image inpainting based on geometric depth parameters | |
Voronin et al. | Image restoration using 2D autoregressive texture model and structure curve construction | |
KR20230062462A (ko) | 레퍼런스 이미지의 검증을 통해 자연스러운 3차원 디지털 트윈을 생성하기 위한 방법 및 장치 | |
Dai et al. | Adaptive illumination based depth sensing using deep superpixel and soft sampling approximation | |
Liu et al. | Super-pixel guided low-light images enhancement with features restoration | |
Chen et al. | Application of optimized convolution neural network model in mural segmentation | |
Zhu et al. | Single image depth estimation based on convolutional neural network and sparse connected conditional random field | |
CN116091773B (zh) | 图像分割模型的训练方法、图像分割方法和装置 |