JP5509278B2 - 被写体位置判定方法およびシステム - Google Patents

被写体位置判定方法およびシステム Download PDF

Info

Publication number
JP5509278B2
JP5509278B2 JP2012184227A JP2012184227A JP5509278B2 JP 5509278 B2 JP5509278 B2 JP 5509278B2 JP 2012184227 A JP2012184227 A JP 2012184227A JP 2012184227 A JP2012184227 A JP 2012184227A JP 5509278 B2 JP5509278 B2 JP 5509278B2
Authority
JP
Japan
Prior art keywords
subject
feature
prediction
vote
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012184227A
Other languages
English (en)
Other versions
JP2013045468A (ja
Inventor
オリバー・ウッドフォード
ミンートリ・パーム
淳人 牧
フランク・パーベット
ビョルン・ステンガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2013045468A publication Critical patent/JP2013045468A/ja
Application granted granted Critical
Publication of JP5509278B2 publication Critical patent/JP5509278B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/753Transform-based matching, e.g. Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • G06F18/21345Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis enforcing sparsity or involving a domain transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

関連出願
本出願は、2011年8月23日に出願された英国特許出願第1114617.2号に基づく優先権を主張するものであって、当該英国出願の全内容を援用するものである。
本発明の実施形態は、一般に被写体位置合わせに関する。
良く知られているハフ変換は、当初は画像内の直線を検出する方法として用いられた。その後、ハフ変換はパラメータ化曲線、任意の2D形状、車、歩行者、手、3D形状(これらは数例に過ぎない)といった他のさまざまな対象を検出し認識するものに一般化された。これは、ハフ変換の第一段階―データ空間に含まれる特徴を、検出すべき被写体の姿勢をパラメータ化したハフ空間内の投票集合に変換すること―の単純性および一般性によるものである。このような特徴から投票への変換機能の学習に関して、種々の異なるアプローチが提案されてきた。
ハフ変換の第二段階では、ハフ空間における各位置の投票の尤度が合計され、ハフ空間におけるモード(すなわち極大値)が計算される。
図1(a)はキャプチャー3D画像から生成された点群である;図1(b)は図1(a)の点群から認識された被写体を示す; 図2は3D画像のキャプチャーに用いられる装置の概略図である; 図3は図3のシステムの説明のための図である; 図4(a)乃至(d)は図2のシステムの動作を示すデータである; 図5は本発明の実施形態による方法に用いることができる特徴をキャプチャーする方法を示すフローチャートである; 図6は特徴を示す写真である; 図7(a)は被写体のキャプチャー3D画像から生成された点群であり、図7(b)は図7(a)の画像とともに抽出された特徴を示す; 図8は、本発明の実施形態による方法のフローチャートである; 図9(a)は画像化される被写体および本発明の実施形態による方法を用いて処理された画像である;図9(b)は図9(a)の被写体の点群であり、図9(c)は検出された特徴を重ね合わせた図9(b)の点群である;図9(d)は検出された特徴をデータベースのものと比較した後に生成された予測姿勢の図であり、図9(e)は図9(a)内の被写体に関してシステムによって返された位置合わせ済CADモデルである; 図10(a)乃至10(j)は、本発明の実施形態による方法を用いて、例として認識され位置合わせされた工業用部品を示す; 図11は図10の被写体の混同マトリックスである; 図12は本発明の本発明による方法および標準的な方法に関して、被写体認識と位置合わせのリコールに対する精度を示すプロットである; 図13(a)は標準的なハフ変換に関して10個の被写体クラスの事後分布結果を示し、図13(b)は本発明の本発明による方法を用いた場合の結果を示す; 図14(a)は標準的なハフ変換に関する推定の結果を示し、図14(b)は本発明による方法を用いた場合の結果を示す。
一実施形態によれば、以下の工程を備えた被写体の位置判定を行う方法が提供される。
各被写体が複数の特徴を呈する複数の被写体を含むデータを分析し、前記データから前記特徴を抽出する工程と、
前記データから抽出された各特徴は少なくとも一つの予測に一票を投じるものであり、データベースに保存された特徴と前記データから抽出された特徴とをマッチングし、被写体の予測を得る工程と、
Nを少なくとも一つの整数とし、分析すべき前記被写体がn個のパラメータで記述され、各パラメータがハフ空間の次元を定義する、ハフ空間において分析すべき予測を表す工程と、
他の特徴からの投票に合致しない投票よりも、他の特徴からの投票と合致する投票に対して高く重み付けする制約を与える工程と、
前記重み付けされた投票を用いて前記ハフ空間における極大値を得る工程と、
前記データにおける前記被写体を位置判定するため、前記極大値と関連付けられた前記予測を識別する工程。
yは全被写体予測の空間であるハフ空間Hにおける被写体の予測であり、iが特徴を表し、jがi番目の特徴からの投票を表し、「<ω={ω}>」が特徴に帰する重みである場合に「<X={xij∀i,j>」はHに投ぜられた投票であり、「<θ={θij∀i,j>」が投票に帰する重みであるとすると、θに関して「<p(y|X,ω,θ)>」の情報エントロピーを最小化することにより前記制約が設けられてもよい。
また一実施形態において、θは以下の式により与えられてもよい。
ここで、「<p(A|B)>」はAがBを与えられたとみなされる事後確率であり、「<q(.)>」は前記投票が取り出される標本分布を表し、前記ハフ空間は位置「<Y={y}>」にてサンプリングされる。
さらに別の実施形態において、θは他の全投票の現在の重みで条件として最小化され、この処理は収束するまで繰り返され、一つの特徴についての前記全投票の重みは以下の式により更新される。
また更に別の実施形態において、kは反復条件モード(ICM)プロキシを用いた以下の式への置換により単純化される。
上記実施形態において、ハフ空間は位置「<Y={y}>」にてサンプリングされる。これらは間隔をおいて規則的に離間されていてもよい。また別の実施形態においては、ハフ空間は前記投票の位置でのみサンプリングされる。本実施形態において、上式は以下のように書き表すことができる。
ここで、「<p(A|B)>」がAがBを与えられたとみなされる事後確率であり、「<q(.)>」は、前記投票が取り出される標本分布を表す。
ここで再び、上式は他の全投票の現在の重みを条件として最小化され、この処理は収束するまで繰り返される。また一実施形態において、これは一つの特徴fの投票の重みを以下の式で更新することによって達成される。
また別の実施形態において、kは以下の式への置換により単純化される。
一実施形態において、初期の段階において重みは緩やかに更新される。つまり、初期の段階において重みは0または1に固定されない。このアプローチによれば、順序付けバイアスが回避され、悪い極小値に早い時期に陥らないようになり、発見される解の質が向上する。
上記方法を用いて初期の投票の重みを設定するため、
を初期値群に設定してもよい、例えば、均一分布によって規定される設定値群に設定してもよい。
一実施形態において、以下のように、更新ルールは投票の重みそれぞれに同期的または非同期的のいずれかで適用される。
が適用される。
これは以下に置換されてもよい。
θの初期推定を得るために上記ルールのいずれかを用いて連続的更新を行ってもよい。例えば、四〜六回の反復実行を行ってもよい。
さらに別の実施形態においては、得られたθの値がハフ変換式で直接用いられる。
また一実施形態において、極大値は事前に定義された間隔でハフ空間をサンプリングすることにより位置判定される。さらに別の方法において、前記極大値は、投票された位置で前記ハフ空間をサンプリングすることにより位置判定される。
また一実施形態において、上記方法が画像中または画像群中の被写体識別に適用され、前記分析すべきデータは画像データであり、前記被写体は前記画像内でキャプチャされた物理的な被写体である。
このような構成において、前記ハフ空間は少なくとも七次元で定義される方法であればよく、そのうち一つの次元は前記被写体のIDを示し、三つの次元は共通座標系に対する前記被写体の平行移動を示し、さらに三つの次元は前記共通座標系に対する前記被写体の回転を示す。また別の実施形態において、ハフ空間は前記投票の位置でのみサンプリングされる。
ハフ空間は以下の式により定義できる。
また一実施形態において、θは前記投票の位置のみで前記ハフ空間をサンプリングすることにより最適化される。
画像処理に加えて、本発明の方法は検索最適化戦略にも用いることができ、前記方法は複数の検索条件から検索結果のリストを返すよう構成された方法であって、位置判定すべき被写体は前記検索結果であり、前記被写体に投票する前記特徴は前記検索条件である。
この一例として、前記検索結果は患者が患っているおそれのある疾病に関係し、前記検索条件は前記患者により示される症状である。
また一実施形態において、被写体を位置判定する装置はプロセッサを具備し、前記プロセッサは以下の工程を実行するよう構成される。
各被写体が複数の特徴を呈する複数の被写体を含むデータを分析し、前記データから前記特徴を抽出する工程と、
前記データから抽出された各特徴は少なくとも一つの予測に一票を投じるものであり、データベースに保存された特徴と前記データから抽出された特徴とをマッチングし、被写体の予測を得る工程と、
nを少なくとも一つの整数とし、分析すべき前記被写体がn個のパラメータで記述され、各パラメータがハフ空間の次元を定義する、ハフ空間において分析すべき予測を表す工程と、
他の特徴からの投票に合致しない投票よりも、他の特徴からの投票と合致する投票に対して高く重み付けする制約を与える工程と、
前記重み付けされた投票を用いて前記ハフ空間における極大値を得る工程と、
前記データにおける前記被写体を位置判定するため、前記極大値と関連付けられた前記予測を識別する工程。
第1実施形態によるシステムおよび方法を説明する。
図1(a)は、4つの被写体1、3、5および7を含むシーンの点群である。点群は、図2乃至4のいずれかを参照して説明される装置を用いて得られる。点群は、3D画像化技術によって得られた表面上の予測点を含む。
本発明の実施形態による方法は、図1(b)に示されるように、図1(a)に示される被写体の認識および位置合わせを可能にする。
図2は、3Dデータのキャプチャーに利用可能なシステムを示している。該システムは基本的にカメラ35、分析ユニット21、ディスプレイ37を含む。
カメラ35は標準的なビデオカメラであり、ユーザーが移動させることができる。作動中において、カメラ35は、画像化される被写体の周囲を制限されずに動かされる。該カメラは簡素な手持ち式でもよい。一方、別の実施形態において、該カメラは三脚または他の機械的支持機構にマウントされる。
分析ユニット21は、カメラ35からカメラデータを受信するためのセクションを含む。分析ユニット21は、プログラム25を実行するプロセッサ23を含む。分析ユニット21は、さらにストレージ27を含む。ストレージ27は、カメラ35から受信したデータを分析するためにプログラム25によって用いられるデータを記憶する。分析ユニット21は、さらに入力モジュール31および出力モジュール33を含む。入力モジュール31はカメラ35に接続される。入力モジュール31は、単純にはカメラ35から直接データを受信することができ、あるいは外部記憶媒体またはネットワークからカメラデータを受信することができる。
出力モジュール33に接続されるのはディスプレイ37である。このディスプレイ37は、カメラ35が受信したカメラデータから生成されたキャプチャー3Dデータの表示に用いられる。ディスプレイ27の代わりに、出力モジュール33はファイルあるいはインターネット上などに出力を行ってもよい。
使用にあたり、分析ユニット21は入力モジュール31を通じてカメラデータを受信する。プロセッサ23上で実行されたプログラム25は、ストレージ27に記憶されたデータを用いてカメラデータを分析して3Dデータを生成し、被写体群とそれらの姿勢を認識する。そのデータは出力モジュール35を通じてディスプレイ37に出力される。
ディスプレイは、ゆっくりと構築される3Dデータを表示する。システムは、一度に多数の点のデプスを決定しなければならない。
カメラが被写体の周囲を移動するにつれて、より多くのデータが得られる。この実施形態において、データが取得されるとリアルタイムで連続して処理され、スクリーン上に被写体の外観が構築される。
図3は、図2のシステムを用いてデプスマップがどのように構築されるか説明するための図である。カメラ1は、第1の位置41(第1の画像位置という)と第2の位置43(第2の画像位置という)の間を移動する。第1の画像位置に画素pを示す。画素pについて、被写体上の点x(Z)を示す。この点x(Z)は、基準点から距離(X)に位置する。この具体例において、基準点は第1の位置41のカメラである。なお、基準点は任意の点でもよい。画素pとして示される点xは、エピポーラー線(epi−polar line)45上に位置する。2D画像I内のデータからデプスZを決定することはできないが、Zの線の位置を決定することはできる。
カメラ1がセクション位置43に移動すると、画像I’がキャプチャーされる。点xが線45上に位置することが分かっている場合、この線を画像空間I’上に投影することを考えると、当業者であれば被写体(図示せず)上の点xは画像空間I’の投影線47上のどこかに位置するであろうことを理解する。
第1の位置41および第2の位置43におけるカメラの位置が判明した時点で、投影線47の位置を決定することができる。また、移動するビデオカメラによって画像を頻繁にキャプチャーするとき、位置41と位置43の間の距離は非常に小さくなる。分かりやすくするために、図3ではこれらの2つの位置間の差を誇張して示した。実際にはこの差は非常に小さく、点xを示す参照画像内の画素pは、小領域w内で第1の位置Iの画像から第2の位置I’の画像に移動するだけである。
そうすると、この領域wを第2の画像I’に投影してw’とした場合、画素pとの類似度を判定するには、投影されたエピポーラー線47上に位置する、投影された領域w’内の画素についてのみ処理すればよいことになる。
そして、線47上の画素が画素pに対応するかを判定するために、既知のマッチングアルゴリズムが実行される。一致スコアについては、wとw’の正規化相互相関(normalised cross correlation: NCC)、sum of absolute differences(SAD)のような方式を用いて評価することができる。
幅ZminとZmaxの間の距離について、マッチングスコアすなわち類似スコアのプロットを図4aに示す。十分にテクスチャ化されたシーンにおいては、一般的に、正しいデプスはマッチングスコアの極大値にきわめて近いことが分かった。したがって、ここからは極大値(x…,xとして表わす)だけを考慮する。
距離Zは第2の画像I’上に投影することができる。この距離Zの第1の近似は、被写体の大まかなサイズに関する何らかの情報に基づくであろう。
システムの動作中にカメラが第3の位置(図3には不図示)に移動すると同じ解析が行われ、位置23に関し図3を参照して説明した場合と同様の手順で類似スコアが得られる。
その後、2つの類似スコアは合計される。さらに別の画像についてのスコアを、エピポーラー線45に沿ったZに関して表す。図4bでは、6枚のフレームからの類似スコアが合計される。図4bの場合がそうであるが、取得した画像がほとんど無い場合、極大値は重度にマルチモーダル(multimodal)である。これは、オクルージョン、タイムワープ、反復テクスチャなどのような問題領域における種々な問題(pathologies)によるものである。図4cには、さらに別の類似スコア、すなわち15枚のフレームからの類似スコアを合計した場合が示され、図4dには、60枚のフレームからの類似スコアを合計した場合が示される。画像がますます加えられるにつれて、当初の図4bに示されるマルチモーダルなヒストグラムは、その特性が図4dに示すようにユニモーダル(unimodel)に移り変わることが分かる。つまり、データは、無相関の外れデータ点の有意な割合によって特徴をはっきりさせるピークに収束している。個々に入ってくるビデオフレームのマッチングスコアの最大値は段々と互いに補強しあい、画素デプスの不明瞭さが除去される。
上記では、被写体が静止し、カメラが移動することを仮定した。しかし、カメラが固定され、被写体が(例えば組立ライン上などを)移動してもよい。
3D画像データのキャプチャーには他のシステムを用いてもよい。例えば、被写体が3つの異なる方向から照明されるフォトメトリックステレオ方式に基づいて構築されたシステムを用いてもよい。該システムは、3つの異なる方向からの照明に関してキャプチャーされた画像データを分離できるように構成される。これは、3つの光源を用いるか、3つの異なる色の光を放射できる光源を用いることによって、照明光を時間的に分離することで行われる。例えば、赤、緑、青の色を区別可能なビデオカメラを調達可能であるとの理由でこれらの色を選択してもよい。なお、一台のビデオカメラにおいて区別可能な色を放射できる3つの光源は任意である。また、非可視放射帯の光を放射する光源を用いてもよい。選択された放射の色あるいは周波数の実影は、ビデオカメラに依存する。一実施形態において、光源はプロジェクタであり、各プロジェクタからの特定色の放射によってシーンが照明されるようにするためのフィルターを備える。別の実施形態において、被写体を照明するためにLEDが用いられる。
上記は、多視ステレオ技術あるいはフォトメトリックステレオ技術を用いて3D被写体データをキャプチャーする技術を示唆している。しかしながら、LIDARセンサー、タイムオブフライトセンサー、アクティブ光デプスセンサー、ならびにCATセンサーおよびMRIスキャナーのような他の手法も可能である。
次に、キャプチャーされたシーンの3Dデータから被写体群とそれらの姿勢を検出するための方法を説明する。
もっともらしい被写体の認識に関する情報をストアする目的で当該システムは被写体認識を行なう前に学習する必要がある。これについて図5を参照して説明する。
最初に、ステップS401では、図2および3を参照して説明したものと同様の装置あるいは3Dデータのキャプチャーに適した他のシステムを用いて被写体または被写体群を画像化する。
この実施形態では、被写体のそれぞれに座標系を割り当てる。一実施形態において、該座標系の原点は被写体の中心とする。該座標系の軸の方向は被写体の方向に一致し、該座標系における単位長は被写体のスケールと等しい。該座標系は単一4x4相似変換行列によって特定される。これは、グローバル座標系の点をローカル座標系の点に変換する。
被写体から特徴を抽出する。該特徴は同定が容易な球状領域である。特徴の例を図6に示す。
特徴を同定する方法は既知であり、ここでは詳しく説明しない。この実施形態では、各特徴にローカル座標系を設定する。該座標系の原点は特徴の中心とする。軸の方向は特徴の基準方向に一致する。また、該座標系における単位長は特徴の半径に等しい。当該座標系についても4x4変換行列によって特定され、グローバル座標系の点を特徴の座標系に変換する。この特徴座標系内において、原点に近い所定位置の31点をサンプリングすることにより、31次元の記述子ベクトルを作成する。(領域中心、領域半径、方向、記述子)のタプルは特徴を成すものであり、ステップS405において記憶される。
したがって、データベース内の各特徴について、該特徴のローカル座標系の変換行列と、関連する被写体のローカル座標系の変換行列との両方が既知となる。特徴の変換行列がF1であり、被写体の変換行列がM1であるならば、F1の逆行列をM1に乗ずる、つまりT=M1(F1)^(−1)を計算することにより、変換行列Tが得られる。これは、特徴のローカル座標系の点を、関連する被写体のローカル座標系の点に変換する。
該変換行列Tは、被写体がスケーリング、平行移動、および回転によって変換される場合であっても不変である。上記の処理は、シーンにおいて特定された全ての被写体について繰り返される。例えば図7(a)に示す被写体61について、図7(b)は、該被写体61に対して指定された特徴63を示す。
図8を参照して動作を説明する。この動作において、図2および3を参照して説明したように画像がキャプチャーされる。ステップS411において、この画像から特徴が抽出される。図5を参照して上述したように特徴について説明する。データベースの中の特徴の記述子と、画像から抽出された特徴とが一致(match)する場合、予測(prediction)が生成される。
実施形態において、ユークリッド距離が閾値未満である場合、2つの記述子間には一致がある。画像から抽出された特徴とデータベースにおける特徴とが一致すると、ステップS415において予測が生成される。この予測は、どんな被写体が認識されているか、それがどこに位置しているかについての仮定である。
実施形態において、シーン上の特徴が一致する場合、該特徴のローカル座標系の変換行列のみが既知である。2つの特徴が一致する場合、テストシーンからの特徴のローカル座標系の点を予測被写体のローカル座標系の点に変換する変換行列は、Tと同じであることを仮定する。したがって、一致した特徴のグローバル座標系からの変換行列がF2であるならば、予測被写体のローカル座標系を表わす変換行列は、TにF2を乗ずること、つまりM2’=T F2により与えられる。M2’は予測被写体姿勢の方向、スケール、中心点を与える。
要するに、2つの記述子の一致によって、対応する2つの領域が同じ形状を持つものと見なす。データベースからの特徴における被写体の識別、位置、スケールおよび方向が既知となると、シーンからの特徴と同じ場所に移動し、スケーリングし、回転するようデータベースからの特徴を(スケーリング処理、平行移動処理、回転処理によって)該被写体を変換することができる。これは、変換後の当該被写体がシーンに存在することの予測に用いられる。
上記の方法によれば、多くの予測が得られる。上記の方法は、特徴から投票への変換処理(第一段階の処理)を可能にする一つの手段に過ぎない。その他多くの特徴−投票変換処理を利用することができる。
ハフ変換の第二段階は、全被写体姿勢(通常はリアル(real))の空間および被写体認識タスクの場合には被写体クラス(ディスクリート(discrete))の空間であるハフ空間Hにおける被写体の位置yの、事後分布の識別モデルであると考えることができる。
該モデルは、N個の特徴によりHに投じられた投票
に基づくノンパラメトリック・カーネル密度推定量であって、
である。ここで、Jは番目の特徴によって生成された投票の数であり、K( , )はハフ空間における密度カーネルであって、ハフ空間内の予測に対応する点の周りに集中してブロブが形成されるようにし、
はそれぞれ、ω,θij≧0,∀i,j
および
となるような特徴および投票の重みである。
例えば、直線検出に用いられる当初のハフ変換において、特徴は点(edgel)である。投票は、各点を通る直線(角度によってパラメータ化される)の離散的な集合について生成される。カーネルK(_,_)は、入力投票への離散化ハフ空間内の最近傍点について1を返し、それ以外について0を返す。重みωおよびθは、標準ハフ変換における分布を均一化するように設定される。
ハフ変換の最終段階は、非極大値抑制により、ある閾値tを超える確率を持つ当該分布のモードを見いだすことを含む。
Hのモードを求めることは、その次元dによってボリュームが指数関数的に増加する当該空間をサンプリングすることを含んでいる。
上記ハフ変換での投票値を合計することにより、投票が正しくなくても、Hにおける有意なモードを生成することができる。実施形態による方法においては、1つの特徴当たり1つの投票だけが正しいことを前提とする。さらに、この方法では、正しいと考えられる投票は、ステップS417における特徴からの他の投票をうまく取り除かなければならない。
ここで、θはアプリオリなものとするよりむしろ、その起こり得る値を超えて最適化され、他の特徴からの投票に一致する投票には、そうでない投票よりも多くの重みが与えられる。
一実施形態において、これは、θについてp(y|X,ω,θ)の情報エントロピーを最小化することにより実現される。下位のエントロピー分布に含まれる情報は、より少なくピーキーになり、より多くの投票が一致するようになる。ハフ空間における情報は被写体の位置であり、エントロピーの最小化は、特徴ができるだけ少ない被写体によって生成されることを強いる。これはオッカムの剃刀を強制することと見ることができる。
特にこの実施形態では、シャノンのエントロピーHを最小化する:
エントロピーの計算は、ハフ空間上の積分を含んでいる(この例では非常に大きい)ので、この積分計算を扱いやすくするために、重要度サンプリングを利用する。
実施形態において、投票の位置についてのみサンプリングしながら、エントロピーは最小化される。この場合、θの値は次式により与えられる。
式(4)によってθを決定する場合、一実施形態では、最適化構造(optimization framework)を利用する。ここで、p(y|X,ω,θ)はθの線形関数であり、−x ln xは凹面であることから、凹関数の和のように、式(4)の関数は凹形である。したがって、その最小値はパラメータ空間の極値にあって式(2)に束縛され、
の最適値(つまり特徴iの投票重みのベクトル)は、1を除き全て0ベクトルでなければならない。
したがって、各θの探索空間はJ個の可能性のあるベクトルの離散集合であり、可能解の総数
を構成する。この探索空間はユニモーダルではないことに留意すべきである。−例えば、特徴が2つほど存在し、それら各々が全く同じように位置yについて1つ、位置zについて1つの計2つの投票を生成する場合、yとzの両方はモードとなる。さらに、探索空間は特徴の数で指数関数的であるから、全数探索は最小問題を除き実行不可能である。
更なる実施形態において、この最適化問題の極小値を迅速に求めために、局所アプローチ、iterated conditional mode(ICM)が用いられる。これは、他のすべての投票の現在の重みを条件とした式(4)を最小化し、この処理を収束するまで繰り返すことで各特徴の投票重みを順番に更新することを含んでいる。特徴fの投票重みについての正確な更新のための式は、以下の通りである。
しかしながら、この更新式は未知のq(.)を含むのみならず計算コストが比較的高いことから、実施形態においてはより簡素な代わりのものに置き換えられ、実際には類似のジョブ
を行う。
上記実施形態において、エントロピーは最小化される。しかしながら、別の実施形態では、ハフ空間を位置Y={y}でサンプリングする。これにより、θの値は次のように与えられる。
ここで、q(.)は、投票が取り出されるサンプリング分布である。この最適化(以下で述べる)が完了すると、推定されたθがステップS419において式(1)に適用され、標準ハフ変換によって推定は継続する。
上記のコスト関数は、他のすべての投票の現在の重みを条件とした式の最小化により各特徴の投票重みを順番に更新し、この処理を何度か(あるいは収束するまで)繰り返すことによって最小化される。特徴fの投票重みの正しい更新式は以下の通りである。
上式に代えて利用可能なICMの代用更新式は、
である。
上記の方法(「最小エントロピー・ハフ変換」という)を用いることにより、検出精度を上げることができる。
一実施形態において、初期の段階において重みは緩やかに更新される。つまり、初期の段階において重みは0または1に固定されない。このアプローチによれば、順序付けバイアスが回避され、悪い極小値に早い時期に陥らないようになり、発見される解の質が向上する。
最適化は局所的であることから、θを適切に初期化することは、優良な最小値への到達に役立つ。
本発明の実施形態により投票重みを初期化することについては、種々の方法を用いることができる。
一実施形態において、例えば
を初期値セットに対して設定することができる。これらは、一様分布
によって規定される。
次に、各投票重みに対し更新ルールを同期または非同期で適用してもよい。該更新ルールは、数回(例えば5回)にわたって適用してもよい。
一実施形態において、更新ルール
を適用した。
別の実施形態では、まずは標準ハフ変換において利用されるθの値を用い、次に各投票重みに対して以下の更新を同時に適用した。
ここで、特徴fのpik
である。
θの初期推定値を得るために、上記ルールのいずれかを用いて逐次に更新を行ってもよい。更なる実施形態において、これらθの初期値は、式(6)、(7)、(8)または(10)、(11)、(12)を参照して述べたICM法を用いる最適化が行なわれる前に用いられる。更に別の実施形態では、得られたθの値は式(1)のハフ変換に直接用いられ、上記ICM法は用いられない。
ハフ空間は、その次元に応じて指数関数的に大きくなるが、ハフ変換を用いるアプリケーションで生成される投票の数は一般的にはそうではない。これは、より高い次元のハフ空間は、多くの場合、よりまばら(sparser)であることを意味している。このスパーシティ(sparsity)は、確率(式(1)から与えられる)が投票それら自体の非ゼロ位置であろう位置でのみハフ空間をサンプリングすることに有効に生かされる。投票の既知の位置でのみサンプリングすること(投票が分布を規定することから「固有ハフ変換」と称する技術)によれば、ハフ変換の必要メモリがO(k)(k>1)からO(n)に変化する。これにより、3D被写体位置合わせ応用に用いられるような高次元ハフ空間への適用を実現可能になる。
最小エントロピー・ハフ変換によれば、正しくない投票が取り除かれることにより、クラスおよび姿勢の事後分布におけるモードの数が十分に削減され、精度が改善される。以下の実験は、これらの貢献がハフ変換を扱い易くするのみならず、実例応用に向けた高精度化に寄与することを示す。
ここでは、物理的な被写体およびこれに一致するするCADモデルの両方が存在する12の形状クラスで構成される実験データを用いて実験を行った。
図9(a)に示すような各被写体の形状を図9(b)に示すような点群の形式で様々な角度から20回ほどキャプチャーした。クラス・ラベルに加え、すべての形状インスタンスは、関連するグランドトルース姿勢を持つ。これは、まず、関連するCADモデルを点群に対し手動で大まかに位置合わせし、Iterative Closest Pointアルゴリズムを用いてその位置合わせを精緻化する。
テスト点群および学習点セット(クラスおよび姿勢が既知のもの)を所与とし、二段階の処理により入力姿勢投票Xを計算する。第一段階においては、記述子と、被写体に対するスケーリング、平行移動、回転とで構成される局所形状特徴が図9(c)に示されるすべての点群について計算される。これは、まず、各ボクセル中心の最近傍点への距離についてガウス(Gaussian)を用いて点群を128ボクセル・ボリュームに変換することによって行われる。そして、Difference of Gaussiansオペレータを用い、3D位置およびスケールにわたってボリューム内で特徴点が局地化され、各特徴点の基準方向が計算され、局所特徴姿勢が得られる。最終的には、特徴点の周囲に規則的に割り振られた31箇所においてボリュームを(正しいスケールで)単純にサンプリングすることにより、基礎的な31次元の記述子が計算される。
第二段階においては、記述子間のユークリッド距離について、各テスト特徴を20個の最近傍学習特徴とマッチングする。これらマッチングの各々は、図9(d)に示すような投票を生成する。図9(e)は位置合わせされたCADモデルを示す。
図10に示すような12個のクラスを評価に用いた。これらは、軸受、ブロック、ブラケット、自動車、歯車の歯、フランジ、取っ手、パイプ、2本のピストンである。
定量的結果を表1および表2ならびに図11に示す。
確立されている平均値シフト技術から最小エントロピー・ハフと称する上述の技術に移行すると、位置合わせおよび認識の両方について性能の向上が見られる。これは位置合わせ率の著しい改善、平均値シフトを超えて非常に改善された認識率(誤分類の96%を削減)を示し、未認識は被写体のわずか1.5%(その大部分は自動車クラスのもの)である。
しかしながら、これらはテストの最良検出結果を示しているだけであって、これから事の全てが分かる訳ではない。競合する重みを持つ他の(正しくない)検出がいかほどであったかは上記の結果から分からない。これについて検討すると、図12は、検出閾値τを変化させて生成した精度−リコール曲線を示す。このテストでは、正しい検出とはクラスと姿勢が同時に正しいことであるとし、1テスト当たり正しい検出は1つのみであるとした。当該曲線は、正しくない投票を除去できる最小エントロピー・ハフ変換では、リコールが増加しても高い精度が維持されることを示している。
計算時間(表1)について、テストされた2つの方法は同程度の速度であった。
正しくない投票を除去することの利点について、図13(a)および13(b)に示す。標準ハフ変換はどこにどれだけの被写体が存在するかについて多くの曖昧さを示す一方、最小エントロピー・ハフ変換は正しくない投票の「霞」を取り除くことができ、被写体に対応する特異的な6つのモードが存在すること、他にもいくつかのモードが存在するものの、これらはそれほど有意ではないという結果を残し、図12の結果を裏付けている。
正しくはっきりとしたモードの利点を、3組の接触する被写体を含んだ難しいデータセットの図13(a)および13(b)と同じ点群を用いる場合について、図14(a)および14(b)に示す。当該最小エントロピー法では、(浅い角度で横たわるピストンの位置合わせをミスしているものの)検出の上位6つから6つの被写体をすべて求まっている。一方、別の方法では、正しくない被写体を検出するのみならず、正しい被写体について多重のインスタンス(特に歯車の歯の上のピストン)を検出してしまっている。
上記では、画像処理、特に画像内の物理的な被写体の認識および/または位置合わせに本方法を利用することについて集中的に説明した。しかしながら、本発明の実施形態による方法は、データベースを検索する効率的な方法を提供するためにデータオブジェクトを認識し、かつ/または位置合わせすることにも利用することができる。
例えば、2つのデータベースリストX={x}およびY={y}と、データ構造体Z={zij}とがあって、xがyに投票できる場合には、zij=1とし、そうでなければzij=0とする場合である。
観測されたxのリストを所与として、存在するyの最小リストを推定するために最小エントロピー・ハフ変換を用いる上記方法を利用することができる。これを行うため、各xを、上述した方法における特徴として扱い、各yを上述した方法における被写体として扱えばよい。画像処理に関して説明したものと同様の方法で被写体に特徴を投票することができる。そして各投票には投票重みを適用することができ、各特徴は正しい投票を1つだけ持つという仮定を置くことができる。この条件は、適用された投票重みに関して最小のエントロピーを計算し、ハフ変換においてこれらの投票重みを用いることにより強制される。
これの実例は次の通りである。
人が罹患しうる疾病について可能性のある全ての症状のリストをリストXとする。
人が罹患しうる可能性のある全ての疾病のリストをリストYとする。Zは、どの疾病がどの症状を引き起こしているかを示す。
現実の患者(特徴)から症状(x)のリストを所与として、Zは、Y(ハフ空間)内の要素への投票リストを生成するために用いられる。最小エントロピー・ハフ変換は、x(症状)の原因にふさわしいyの最小リスト(疾病)を生成するために用いられる。
いくつかの実施形態を説明したが、これらの実施形態は例示のみを目的としており、発明の範囲を制限することは意図していない。実際には、本明細書で説明した新規の方法およびシステムは他の様々な形で具体化することができ、また発明の要旨から逸脱しない範囲で、本明細書で説明した方法およびシステムの構造における様々な省略、置換、および変更を行ってもよい。添付の特許請求の範囲およびその均等物は、発明の範囲および要旨に含まれうる構造あるいは改良に及ぶことが意図される。

Claims (15)

  1. 各被写体が複数の特徴を呈する複数の被写体を含むデータを分析し、前記データから前記特徴を抽出する工程と、
    前記データから抽出された各特徴は少なくとも一つの予測に一票を投じるものであり、データベースに保存された特徴と前記データから抽出された特徴をマッチングし、被写体の予測を得る工程と、
    nを少なくとも一つの整数とし、分析すべき前記被写体がn個のパラメータで記述され、各パラメータがハフ空間の次元を定義する、ハフ空間において分析すべき予測を表す工程と、
    他の特徴からの投票に合致しない投票よりも、他の特徴からの投票と合致する投票に対して高く重み付けする制約を与える工程と、
    前記重み付けされた投票を用いて前記ハフ空間における極大値を得る工程と、
    前記データ内における前記被写体を位置判定するため、前記極大値と関連付けられた前記予測を識別する工程とを備え
    yが全被写体予測の空間であるハフ空間Hにおける前記被写体の前記予測であるとし、iが特徴を表し、jがi番目の特徴からの一票を表し、「<ω={ω }>」が特徴に帰する重みである場合に「<X={x ij ∀i,j >」はHに投ぜられた投票であるとし、「<θ={θ ij ∀i,j >」が一票に帰する重みであるとすると、θに関して「<p(y|X,ω,θ)>」の情報エントロピーを最小化することにより前記制約が設けられる被写体位置判定方法。
  2. 前記θの値が以下の式
    により与えられ、ここで、「<p(A|B)>」がAがBを与えられたとみなされる事後確率であり、「<q(.)>」は前記投票が取り出される標本分布を表し、前記ハフ空間は位置「<Y={y}>」にてサンプリングされる、請求項に記載の方法。
  3. 前記極大値は、事前に定義された間隔でハフ空間をサンプリングすることにより位置判定される請求項1に記載の方法。
  4. θは他の全投票の現在の重みで条件として最小化され、この処理は収束するまで繰り返され、一つの特徴についての前記全投票の重みは以下の式
    により更新される、請求項に記載の方法。
  5. kは以下の式
    への置換により与えられる、請求項に記載の方法。
  6. 前記投票の重みθの評価が得られ、そして前記投票の重みは以下の式
    により更新され、
    ここで、yは全被写体予測の空間であるハフ空間Hにおける前記被写体の前記予測であり、iが特徴を表し、jがi番目の特徴からの投票を表し、「<ω={ω}>」が特徴に帰する重みである場合に「<X={xij∀i,j>」はN個の特徴によりHに投ぜられた投票であり、「<θ={θij∀i,j>」が一票に帰する重みであり、特徴fについて、
    である、請求項1に記載の方法。
  7. 前記極大値は、投票された位置で前記ハフ空間をサンプリングすることにより位置判定される、請求項1に記載の方法。
  8. 画像中の被写体識別に関連するよう構成された方法であって、前記分析すべきデータは画像データであり、前記被写体は前記画像中にキャプチャされた物理的な被写体である、請求項1に記載の方法。
  9. 前記ハフ空間は少なくとも七つの次元で定義される方法であって、そのうち一つの次元は前記被写体のIDを示し、三つの次元は共通座標系に対する前記被写体の平行移動を示し、さらに三つの次元は前記共通座標系に対する前記被写体の回転を示す、請求項に記載の方法。
  10. 前記ハフ空間は以下の式
    より与えられる、請求項1に記載の方法。
  11. θは前記投票の位置のみで前記ハフ空間をサンプリングすることにより最適化される、請求項に記載の方法。
  12. 複数の検索条件から検索結果のリストを返すよう構成された方法であって、位置判定すべき被写体は前記検索結果であり、前記被写体に投票する前記特徴が前記検索条件である、請求項1に記載の方法。
  13. 前記検索結果は患者が患っているおそれのある疾病に関係し、前記検索条件は前記患者により示される症状である、請求項12に記載の方法。
  14. 請求項1に記載の方法をコンピュータに実行させるよう構成された、コンピュータで読み取り可能な命令を記録した記憶媒体。
  15. 被写体を位置判定する装置において、前記装置はプロセッサを具備し、前記プロセッサは
    各被写体が複数の特徴を有する複数の被写体を含むデータを分析し、前記データから前記特徴を抽出する工程と、
    前記データから抽出された各特徴は少なくとも一つの予測に一票を投じるものであり、データベースに保存された特徴と前記データから抽出された特徴をマッチングし、被写体の予測を得る工程と、
    nを少なくとも一つの整数とし、分析すべき前記被写体がn個のパラメータで記述され、各パラメータがハフ空間の次元を定義する、ハフ空間において分析すべき予測を表す工程と、
    他の特徴からの投票に合致しない投票よりも、他の特徴からの投票と合致する投票に対して高く重み付けする制約を与える工程と、
    前記重み付けされた投票を用いて前記ハフ空間における極大値を得る工程と、
    前記データ内における前記被写体を位置判定するため、前記極大値と関連付けられた前記予測を識別する工程とを実行するよう構成され、
    yが全被写体予測の空間であるハフ空間Hにおける前記被写体の前記予測であるとし、iが特徴を表し、jがi番目の特徴からの一票を表し、「<ω={ω }>」が特徴に帰する重みである場合に「<X={x ij ∀i,j >」はHに投ぜられた投票であるとし、「<θ={θ ij ∀i,j >」が一票に帰する重みであるとすると、θに関して「<p(y|X,ω,θ)>」の情報エントロピーを最小化することにより前記制約が設けられる、装置。
JP2012184227A 2011-08-23 2012-08-23 被写体位置判定方法およびシステム Expired - Fee Related JP5509278B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1114617.2A GB2496834B (en) 2011-08-23 2011-08-23 Object location method and system
GB1114617.2 2011-08-23

Publications (2)

Publication Number Publication Date
JP2013045468A JP2013045468A (ja) 2013-03-04
JP5509278B2 true JP5509278B2 (ja) 2014-06-04

Family

ID=44800813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012184227A Expired - Fee Related JP5509278B2 (ja) 2011-08-23 2012-08-23 被写体位置判定方法およびシステム

Country Status (3)

Country Link
US (1) US8761472B2 (ja)
JP (1) JP5509278B2 (ja)
GB (1) GB2496834B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9002719B2 (en) 2012-10-08 2015-04-07 State Farm Mutual Automobile Insurance Company Device and method for building claim assessment
US9082015B2 (en) 2013-03-15 2015-07-14 State Farm Mutual Automobile Insurance Company Automatic building assessment
US8872818B2 (en) 2013-03-15 2014-10-28 State Farm Mutual Automobile Insurance Company Methods and systems for capturing the condition of a physical structure
US8818572B1 (en) 2013-03-15 2014-08-26 State Farm Mutual Automobile Insurance Company System and method for controlling a remote aerial device for up-close inspection
US8874454B2 (en) 2013-03-15 2014-10-28 State Farm Mutual Automobile Insurance Company Systems and methods for assessing a roof
GB2523776B (en) * 2014-03-04 2018-08-01 Toshiba Res Europe Limited Methods for 3D object recognition and pose determination
US10176527B1 (en) 2016-04-27 2019-01-08 State Farm Mutual Automobile Insurance Company Providing shade for optical detection of structural features
CN113065546B (zh) * 2021-02-25 2022-08-12 湖南大学 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638465A (en) * 1994-06-14 1997-06-10 Nippon Telegraph And Telephone Corporation Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor
US8724865B2 (en) * 2001-11-07 2014-05-13 Medical Metrics, Inc. Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
JP3914864B2 (ja) 2001-12-13 2007-05-16 株式会社東芝 パターン認識装置及びその方法
US20080260254A1 (en) * 2005-12-22 2008-10-23 Koninklijke Philips Electronics, N.V. Automatic 3-D Object Detection

Also Published As

Publication number Publication date
US8761472B2 (en) 2014-06-24
US20130051639A1 (en) 2013-02-28
GB2496834A (en) 2013-05-29
GB201114617D0 (en) 2011-10-05
GB2496834B (en) 2015-07-22
JP2013045468A (ja) 2013-03-04

Similar Documents

Publication Publication Date Title
JP5509278B2 (ja) 被写体位置判定方法およびシステム
Jörgensen et al. Monocular 3d object detection and box fitting trained end-to-end using intersection-over-union loss
JP5417494B2 (ja) 画像処理方法およびシステム
JP5677798B2 (ja) 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法
US7747106B2 (en) Method and system for filtering, registering, and matching 2.5D normal maps
Lipson et al. Coupled iterative refinement for 6d multi-object pose estimation
CN108229347B (zh) 用于人识别的拟吉布斯结构采样的深层置换的方法和装置
US10554957B2 (en) Learning-based matching for active stereo systems
JP2011086265A (ja) 画像処理装置及び方法、プログラム及び記憶媒体
JP4709668B2 (ja) 3次元物体認識システム
CN111524168B (zh) 点云数据的配准方法、系统、装置及计算机存储介质
EP2293243A2 (en) Image processing apparatus, image capture apparatus, image processing method, and program
CN110580499B (zh) 基于众包重复标签的深度学习目标检测方法及系统
CN116229189B (zh) 基于荧光内窥镜的图像处理方法、装置、设备及存储介质
EP4066162A1 (en) System and method for correspondence map determination
Seib et al. Object recognition using hough-transform clustering of surf features
JP2009014415A (ja) 物体認識装置および物体認識方法
JP6429466B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
CN109241932B (zh) 一种基于运动方差图相位特征的热红外人体动作识别方法
JP2016206909A (ja) 情報処理装置、情報処理方法
JP2019211914A (ja) 物体らしさ推定装置、方法、およびプログラム
US20210034915A1 (en) Method and apparatus for object re-identification
CN116245770B (zh) 一种内窥镜图像边缘锐利度增强方法、装置、电子设备及存储介质
CN113744181B (zh) 基于2d3d视觉融合的五金件机器人智能化打磨方法与装置
JP2012242315A (ja) 位置検知システム、それを用いた移動体、位置検知方法およびそのためのプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

LAPS Cancellation because of no payment of annual fees