JP2008286756A - 位置姿勢計測装置及びその制御方法 - Google Patents

位置姿勢計測装置及びその制御方法 Download PDF

Info

Publication number
JP2008286756A
JP2008286756A JP2007134583A JP2007134583A JP2008286756A JP 2008286756 A JP2008286756 A JP 2008286756A JP 2007134583 A JP2007134583 A JP 2007134583A JP 2007134583 A JP2007134583 A JP 2007134583A JP 2008286756 A JP2008286756 A JP 2008286756A
Authority
JP
Japan
Prior art keywords
line segment
measurement
orientation
target object
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007134583A
Other languages
English (en)
Other versions
JP5013961B2 (ja
JP2008286756A5 (ja
Inventor
Kazuhiko Kobayashi
一彦 小林
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007134583A priority Critical patent/JP5013961B2/ja
Priority to US12/123,125 priority patent/US8059889B2/en
Publication of JP2008286756A publication Critical patent/JP2008286756A/ja
Publication of JP2008286756A5 publication Critical patent/JP2008286756A5/ja
Application granted granted Critical
Publication of JP5013961B2 publication Critical patent/JP5013961B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複雑な形状を有する計測対象物体の位置姿勢推定のために必要な手続きを簡便化することを可能にする。
【解決手段】計測対象物体を撮像する撮像装置と前記計測対象物体との間の相対的な位置姿勢を計測する位置姿勢計測装置は、計測対象物体の3次元モデルデータに基づいて計測対象物体の構成面を抽出するとともに、構成面を形成する線分から、撮像画像のエッジの検出に用いるべき計測用線分を抽出する。位置姿勢計測装置は、抽出された計測用線分を撮像装置の推定された位置姿勢に基づいて撮像画像に投影し、抽出された構成面によって隠蔽されない計測用線分を選択し、選択された計測用線分と撮像画像の対応するエッジとに基づいて撮像装置と計測対象物体との相対的な位置姿勢を算出する。
【選択図】 図1

Description

本発明は、計測対象物体のモデルを撮像画像上に投影した位置と撮像画像から観察される計測対象物体の位置との距離に基づいて撮像装置の位置姿勢を計測する位置姿勢計測技術に関するものである。
現実空間を撮像するカメラなどの撮像装置(以下適宜「カメラ」と言い換える)の位置姿勢計測は、例えば現実空間と仮想空間とを融合表示する複合現実感システムにおいて必要となる。
一般に、撮像装置の位置姿勢を計測する方法として、計測対象物体に3次元位置が既知の指標を貼付する方法が開示されている。この種の位置姿勢計測方法では、指標の3次元位置を推定している位置姿勢に従って撮像画面へ投影した投影位置と、撮像画像から検出された指標の画像位置との差を小さくするように位置姿勢が推定される。その際、対象となる指標は、画像処理により検出することが容易なことが望まれ、幾何学的な特徴を有するものや、特定の色や輝度を有するものが使われる。
しかし、広い範囲での利用を想定すると、必ずしも計測対象物体に位置姿勢検出用の指標が貼付できるとは限らない。例えば計測対象をビルなどの建築物としたときに、その壁面に巨大な指標を貼付することは困難である。
このような課題を解決する方法として、物体を構成する面と面の稜線を用いて、現実のカメラの位置姿勢を推定する方法が多く提案されている。それらの方法では、撮像画像から計測対象物体のエッジを抽出し、抽出したエッジと、CADモデルをCGにより描画した輪郭線画像との相関を基にして、撮像装置の位置姿勢が算出される。
ここで、計測対象物体がCADによりデザインされたものならば、CGによる参照画像を作成することは容易である。しかし、その場合であっても、想定される位置姿勢を網羅的に求めておく必要があるため、準備のための工数は必要である。
そのような方法の一つとして、特許文献1には、CADモデルを用いた方法が開示されている。特許文献1によれば、まず、複数の視点から観測したときの3次元モデル投影画像からエッジを検出し、エッジの線分をパラメータ近似して保持し、実際に観測した撮像画像と再構成したパラメータによる線分との相関を計算する。そして、最も高い相関を有する3次元モデル投影画像の仮想カメラの位置姿勢を、撮像装置の位置姿勢として求める。
この方法では、予め複数の視点から観測した参照画像群を生成しておき、撮像画像で観察されたエッジとの画像相関の計算を行うこととなる。そのため、参照画像群の枚数の増加に伴い膨大な処理時間を必要とする。精度良く位置姿勢を求めるためには、十分な参照画像群を用意しなければならないため、一般に、特許文献1のような手法は、撮影後に長い時間をかけて処理を行っても良い場合にしか適用できない。
一方、複合現実感やロボットの物体認識においては、撮像装置の位置姿勢推定処理は、撮像画像の更新間隔で推定を実行することが求められる。ここでいう撮像画像の更新間隔とは、NTSC信号のビデオの場合は、33ミリ秒である。そのため、特許文献1のような多量の参照画像群のエッジと撮像画像のエッジの画像相関を計算する手法を適用することは難しい。
また、別の問題として計測対象物体が複数の構造物から構成され、その一部が自由に動かせるような場合では、移動する物体の運動が未知であるため、参照画像を事前に取得することが出来ない。これを解決する別の方法として、非特許文献1にて、計測対象物体の3次元モデルを用いて、撮像装置で撮像した撮像画像中のエッジから、オンラインで撮像装置の位置姿勢を推定する方法が開示されている。特許文献1と異なるのは、事前に参照画像群を取得する必要が無い点にあり、リアルタイムでの撮像装置位置姿勢推定に適用可能な点にある。また、参照画像群と撮像画像との相関計算を行わないため、処理時間も短い。
非特許文献1に開示された方法では、位置姿勢の更新時に3次元モデルを撮像画像上に投影し、探索対象点周辺の画像に対してのみエッジを探索することを基にカメラの位置姿勢を推定している。さらには、後述するように、画像処理に係る処理時間を少なくする工夫もなされている。また、計測対象物体の移動に対しても、個別に位置姿勢を推定すれば良いので、動きに制限がない。
この手法の概略の処理手順は以下のとおりである。
[1] おおよその推定中の位置姿勢を用いて、計測対象物体の計測用線分を撮像画面上に投影する。
[2] 投影した計測用線分周辺の画素を探索して濃度が局所的に変化するエッジ領域の位置を求める。
[3] エッジ領域の位置と投影した計測用線分との距離を小さくするように位置姿勢を最適化する。
[4] 推定中の位置姿勢の値を最適化した位置姿勢で更新する。
なお、投影する計測用の線分の3次元モデルは、予めエッジが検出されやすい線分のみを用いることにより、精度良く、さらに高速に撮像装置の位置姿勢を求めることが可能となる。実際には、投影した計測用線分周辺の画素を全て探索するのは時間がかかるので、投影した計測用線分をさらに適当な間隔でサンプリングした点が、探索対象点とされる。
この手法では、探索対象点において、投影した計測用線分の方向に対して垂直な有限な一次元方向の探索が行われる。なお、探索するエッジは、撮像画像中の局所的な濃度変化を有する領域とし、ラプラシアンフィルタなどのエッジ検出画像フィルタを用いることで濃度勾配が局所的に大きい領域が求められる。
推定している位置姿勢が実際の位置姿勢に近ければ近いほど、探索した撮像画像のエッジ位置と、画像上の投影した計測用線分との距離は小さくなる。しかし、実際の撮像画像には多くのノイズが含まれる。推定精度に影響を与える要因としては、エッジの誤検出や未検出が挙げられる。そのため、計測用の線分は、撮像画像上で観測されているエッジとの対応を考慮したほうが良い。
この手法においても、他の物体により隠蔽される領域にある線分や、視線とは反対側の位置にある線分などを、エッジの探索対象点としないようにする処理が行われている。これにより、複数の計測対象物体が視線方向に対して重なっている場合や、凹凸のある複雑な形状に対しても位置姿勢推定が適用できる。
一方、コンピュータグラフィックスの技術において、面によって隠蔽される線と可視である線とを描き分ける隠線消去の技術がある。この技術を応用することで、面により隠れている線を除去し、計測用線分撮像画像上では観測されないとする線分をエッジの探索対象としないようにすることができる。ここでの3次元モデルの撮像画像上への変換には、推定中の撮像装置の位置姿勢が用いられる。3次元モデルの構成面および線分の位置が、推定中の位置姿勢に対応した視線方向から観察される位置に座標変換され、そのときの奥行き方向の距離が求められる。奥行き方向の距離は撮像画像に対応した距離画像として保持される。求めた奥行き方向の距離と、距離画像の値を比較し、より小さい値であるとき、距離画像の値を更新する。
そこで、非特許文献1では、計測対象物体を構成する複数の面から距離画像を生成する。次に、計測用線分を撮像装置のおおよその位置姿勢を視点としたときの座標変換を行う。計測用線分のエッジ探索対象点候補のうち、奥行き方向の値と、構成面による距離画像の値を比較する。エッジ探索対象点候補の値が距離画像の値と同じか、もしくは小さい場合は、エッジ探索対象点として以降エッジ探索処理を実行する。
さらに、この手法においては、処理を効率化するために、計測対象物体の構成面の描画をグラフィックス描画用ハードウェアの描画機能を用いて高速化している。計測対象物体の構成面の情報は、画像上から計測する線分が他の計測対象物体により隠蔽されていないかを判定する上で重要な情報となる。他の面により隠蔽されているかどうかの判定をしないと、本来撮像画像に観測されない線分が計測対象となり、位置姿勢の推定精度を向上することができない。例えば、計測対象物体の裏側にある計測用線分を用いると、実際には撮像画像上には観測されない場合もあるが、他のエッジを間違って対応するエッジとして検出するので、大きな誤差を有する点として扱われてしまう。
特開2004−326314号公報 Tom Drummond and Roberto Cipolla. "Real-time visual tracking of complex structures." IEEE Transaction of Pattern Analysis and Machine Intelligence. Vol.24, No.7, pp.932-946, 2002
上述した方法を適用するにあたり、計測用の線分のデータ、およびそれが実際に観測されるかどうかの見えのテストをするための計測対象物体の構成面のデータを、それぞれ用意する必要がある。計測対象物体が、CAD等を用いて設計されたものであれば、構成面および線分は、その設計図を利用することができる。
単純な平面の組み合わせで構成されているような3次元モデルの場合、構成面と観測されるエッジの構成が類似しているため、構成面データと、位置合わせに用いる計測用線分のデータを同じにできる。ただし、この場合、計測対象物体は単純な直方体や矩形のような3次元モデルである必要があり、実際のシーンへの適用範囲が狭い。一般に、複雑な形状を有する計測対象物体を取り扱う場合、構成面の情報と計測用の線分の情報を同じにすることは難しい。
ここで、複雑な形状を有している計測対象物体であっても、単純な三角形および四角形などのポリゴンを元に複雑な曲面や物体の形状記述をすることは可能である。ただし、これをそのまま計測用の線分として利用することには問題がある。
撮像画像上でエッジとして観測される条件としては、構成面の境界が隣接する構成面と不連続であることや、構成面の光に対する物性が隣接する構成面と不連続であることが挙げられる。そのため、複雑な平面は、同一の法線を有する複数の三角形または四角形のポリゴンにより構成されている場合が多い。このような複雑な平面を構成する各ポリゴンの線分は、実際の撮像画像上ではエッジとして全て観測されるものではない。また、曲面を構成する平面の場合は、構成面が連続していても観測する位置によっては、照明位置の関係から大局的な反射角度が異なり、結果として遠方から観測したときにエッジとして観測される場合もある。
このように、構成面を計測用線分として用いる場合、視線方向の手前側にある線分であっても、複数のポリゴンで1つの面を構成している場合は、3次元モデルの面によって挟まれる線分と撮像画面で観測されるエッジとは一般に対応していない。したがって、3次元モデルの構成面を位置合わせのための計測用線分の情報として、そのまま利用することはできないことが考えられる。
従って、計測用線分と3次元モデルの構成面を形成するための線分を別々のデータとして保持することも考えられるが、そのような構成には以下の課題がある。例えば、計測対象物体の構成面の情報と実際の計測用線分との整合性を維持することは難しく、計測対象物体の柔軟な変更に対応することができない。言い換えると、計測対象物体が複雑な場合にも適用できるような、形状を表現する膨大な頂点や線分リストと、その部分的な集合である計測用線分のデータセットとを、整合性を維持しながら利用する手段は提案されていない。例えば、非特許文献1などの研究においては、検証のための計測対象物体は既定されており、予め調整された構成面の情報、および計測用線分の情報を別々に保持することで、既定された計測対象物体の位置姿勢合わせを実現している。
計測対象物体の3次元モデルを撮像画像上へ投影した線分と、対応する撮像画像上のエッジ位置の差が小さくなるように位置姿勢を推定する技術がある。この技術において、複雑な計測対象物体を扱うために、計測対象となるモデルの線分を実際に観測されるエッジと対応させることで、精度を向上することが可能となる。しかし、そこで利用する物体の構成面のデータセットと、計測に用いるデータセットとの整合性を維持しながら、位置姿勢推定の上記手法を利用する手続きが無いため、そのような位置姿勢推定装置の利便性は低かった。
本発明は、上記の課題に鑑みてなされたものであり、計測対象物体の3次元モデルの幾何的な変更が行われた場合でもデータセットの整合性を維持可能とすることを目的とする。また、複雑な形状を有する計測対象物体の位置姿勢推定のために必要な手続きを簡便化することを可能にすることを目的とする。
上記の目的を達成するための本発明の一態様による位置姿勢計測装置は以下の構成を備える。すなわち、
計測対象物体を撮像する撮像装置の前記計測対象物体に対する相対的な位置姿勢を計測する位置姿勢計測装置であって、
保持されている前記計測対象物体の3次元モデルデータに基づいて前記計測対象物体の構成面を抽出する構成面抽出手段と、
前記3次元モデルデータの前記構成面を形成する線分から、撮像画像のエッジの検出に用いる計測用線分を、隣接する構成面の特性に基づいて抽出する線分抽出手段と、
前記線分抽出手段で抽出された計測用線分を前記撮像装置の推定された位置姿勢に基づいて前記撮像画像に投影する線分投影手段と、
前記構成面抽出手段で抽出された構成面に基づいて、前記撮像画像に投影された計測用線分のうち前記推定された位置姿勢において可視である計測用線分を選択する選択手段と、
前記選択手段により選択された計測用線分と、前記撮像画像の対応するエッジとに基づいて、前記撮像装置と前記計測対象物体との相対的な位置姿勢を算出する算出手段とを備える。
また、上記の目的を達成するための本発明の他の態様による位置姿勢計測装置は以下の構成を備える。すなわち、
計測対象物体を撮像する撮像装置の前記計測対象物体に対する相対的な位置姿勢を計測する位置姿勢計測装置であって、
計測対象物体の3次元モデルデータを保持する保持手段と、前記3次元モデルデータは、各線分について撮像画像のエッジの検出に用いる線分であるか否かを示す属性が付与されており、
前記3次元モデルデータに基づいて前記計測対象物体の構成面を抽出する構成面抽出手段と、
前記3次元モデルデータから、撮像画像のエッジの検出に用いる線分であることを示す属性が付与されている線分を計測用線分として抽出する線分抽出手段と、
前記線分抽出手段で抽出された計測用線分を前記撮像装置の推定された位置姿勢に基づいて前記撮像画像に投影する線分投影手段と、
前記構成面抽出手段で抽出された構成面に基づいて、前記撮像画像に投影された計測用線分のうち前記推定された位置姿勢において可視である計測用線分を選択する選択手段と、
前記選択手段により選択された計測用線分と、前記撮像画像の対応するエッジとに基づいて、前記撮像装置の前記計測対象物体に対する相対的な位置姿勢を算出する算出手段とを備える。
本発明によれば、計測対象物体の3次元モデルの幾何的な変更が行われた場合でもデータセットの整合性を維持することが可能となる。また、複雑な形状を有する計測対象物体の位置姿勢推定のために必要な手続きを簡便化することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
図1は、本発明の一実施形態である位置姿勢計測装置100を撮像装置101に適用した場合の構成を示すブロック図である。なお、位置姿勢計測装置100は、各処理を行う処理部と情報を保持する保持部で構成されているものとする。位置姿勢計測装置100は、専用の装置であっても良いが、一般的な汎用コンピュータにおいて、後述する位置姿勢計測の制御を実施するためのアプリケーションプログラムを実行させることでも実現され得る。その場合、図1に示される情報保持部300は、ハードディスクやRAM等により構成され、その他の各部はコンピュータがアプリケーションプログラムを実行することにより実現されることになるが、そのような構成は、当業者には明らかである。位置姿勢計測装置100の目的は、撮像装置101が3次元モデルデータ102(以下、3次元モデル102)に記述された計測対象物体を撮像しているときの撮像装置101の当該計測対象物体に対する相対的な位置姿勢を求めることである。
また、計測対象物体は世界座標系にて既定されているとする。さらに、計測対象物体は世界座標系における相対位置姿勢が既知であれば、計測対象物体の3次元モデルは既知の相対位置姿勢を乗算すれば世界座標系として扱うことができる。
撮像装置101としては、CCDやCMOSで構成される光電子変換素子を用いた2次元の撮像装置(所謂デジタルカメラ)を使用できる。撮像装置101の映像信号は、撮像装置入力部200を経由して位置姿勢計測装置100に取り込まれる。
情報保持部300は、位置姿勢計測装置100の各処理部で必要とされる入力、出力の状態を保持するための機能を有している。情報保持部300はRAM(Random Access Memory)用いて構成される。
画像取得部201は、撮像装置入力部200から入力された映像信号を水平同期信号、垂直同期信号を参照して、2次元画像に再構成し、情報保持部300に撮像画像データ301として書き込む。
計測対象物体の3次元モデル102は、事前に外部記憶媒体に保存されたデータであっても良いし、ネットワークによりリモートサーバから取得されたデータであっても構わない。すなわち、本位置姿勢計測装置100が取り扱える形式に整えられた3次元モデルデータであれば、その形式、取得方法はいかなるものであっても良い。3次元モデル102は、計測対象物体の3次元の幾何的な情報を有するモデルであり、3次元CAD等により作成されたものを用いることができる。また、事前に設計時の図面が無い場合は、計測器で実測した値を3次元モデルとして入力して作成することもできる。3次元モデルの編集には、市販のCADやCG製作用のモデラーを用いればよい。
モデル読出部400は、3次元モデル102から、モデルの頂点座標、点と点を結ぶ線分情報、複数の線分から構成される平面情報、さらに平面のアピアランスなどの情報を読み出す。さらに、読み出されたこれらの情報は、構成面抽出部401と計測用線分抽出部500に渡される。構成面抽出部401は、3次元モデル102から、計測対象物体の面を構成する情報を抽出し、情報保持部300に構成面データ302として書き込む。計測用線分抽出部500は、位置合わせに用いる計測用線分のデータセット(計測用線分データという)を計測対象物体の3次元モデル102から抽出する。なお、計測用線分抽出部500は、図4A、図4Bで後述するように、3次元モデル102の構成面を形成する線分から、撮像画像のエッジの検出に適した線分を計測用線分のデータとして抽出する。抽出された計測用線分データは、情報保持部300に計測用線分データ304として保持される。なお、計測用線分は、2つの頂点座標とその連結情報で構成されているものとする。以上のように、モデル読出部400が読み出した3次元モデル102から、構成面データ302および計測用線分データ304が情報保持部300に保持されることになる。なお、構成面データ302および計測用線分データ304が情報保持部300に保持されるまでの処理は、計測対象物体の3次元モデル102が位置姿勢計測装置100に設定もしくは内容が更新された時に行われるものとする。
概略位置姿勢入力装置103は、位置姿勢計測装置100が位置姿勢推定をするのに有効な概略の位置姿勢を与えることができる装置を用いれば良い。例えば、磁気センサを用いた3次元位置計測装置の出力や、超音波センサを用いた3次元位置姿勢装置の出力を用いることができる。ここでは、画像から精度良く位置姿勢を求めるために必要な初期値として利用することができる概略の位置姿勢が推定されれば良い。概略位置姿勢入力装置103により検出された位置姿勢は、概略位置姿勢入力部202を介して、情報保持部300に撮像装置の位置姿勢データ305として保持される。
次に、位置姿勢計測装置100の撮像装置の位置姿勢を推定する処理について説明する。
まず、位置姿勢を推定するタイミングとしては、例えば、撮像装置101で撮像された画像が更新される度に、処理が行われることが挙げられる。
構成面描画部402は、構成面データ302をクリアする。そして、計測対象物体の3次元モデル102から抽出された構成面データ302を、撮像装置のおおよその推定位置姿勢を表す位置姿勢データ305を用いて、撮像装置101から観測した3次元CGモデルとして描画する。撮像装置101の位置姿勢を視点としたときの、各構成面に対する奥行き情報は、視線方向に対する手前の奥行き位置が構成面描画画像データ303として情報保持部300に保持される。
具体的には、構成面描画部402は、構成面の各頂点について、撮像装置101の位置姿勢を視点としたときのモデルビュー変換を行う。そして、構成面をラスタライズしたときの各点について、構成面描画画像データ303の値と比較し、視点方向手前の値である場合に情報を更新する。
計測用線分投影部501は、情報保持部300に保持されている撮像装置の位置姿勢データ305が表す位置姿勢を視点として、計測用線分データ304の各頂点をモデルビュー変換する。モデルビュー変換された各計測用線分は、計測用線分分割部502により、投影画面上での長さを考慮して分割される。エッジ探索部601は、この分割によって得られた分割点のうち他の構成面により隠蔽されていない点について探索を実行する。これは、計測用線分に含まれる全ての撮影画像上の点を基に探索を行う場合に比べて処理時間を低減する。すなわち、本実施形態によれば、計測用線分の投影線分上から代表的な点(分割点)を選択し、その代表的な点から探索したエッジ位置と投影線分との距離を利用するので、処理の効率化を図ることができるという効果が得られる。以下では、分割点のことを代表点とも称する。なお、分割点の数は、投影画面上の投影線分の長さが既定の分割最小長さより短ければ撮像画像上でも観察できないので0としても構わない。さらに、投影画面上の投影線分の長さが既定の分割最小長さより長ければ複数あるものとする。
可視検出部600は、計測用線分分割部502により選択された各計測用線分上の代表点が、構成面描画画像データ303の奥行き情報を用いて他の構成面により隠蔽されているかどうかを検出する。隠蔽されていないと判定された代表点(以下、可視判定された代表点という)の情報は、撮像画像データ301が表す撮像画像上で観測できるエッジ探索対象点としてエッジ探索部601に渡す。これにより、観測できるエッジ探索対象点とそれに対応するエッジが位置合わせ推定に用いられることになるので、推定の誤差要因を少なくすることができる。
エッジ探索部601は、エッジ探索対象点の画像上の位置から、計測用線分の線分方向に対して垂直方向に撮像画像データ301が表す撮像画像の画素の濃度を読み取る。ここで読み取る範囲は、計測対象物体と撮像装置101の位置姿勢との位置関係を配慮して設定されるのが好ましい。読み取った濃度が隣接する画素に対して濃度勾配が大きい点は観測エッジとして、その位置を抽出する。ここで、エッジ探索部601が抽出する観測エッジの数は、複数であっても構わない。
エッジ距離算出部602は、撮像画像データ301が表す撮像画像の観測エッジの座標位置と、各計測用線分が撮像画像上に投影されたときの線分との距離を計算する。さらに、エッジ距離算出部602は、算出された距離情報を、観測エッジと投影された計測用線分との距離データ306として情報保持部300に格納する。
位置姿勢更新部700は、情報保持部300に保持された距離データ306を用いて、撮像装置101の推定している位置姿勢を更新する。さらに、その更新の結果は、位置姿勢出力部701により位置姿勢計測装置100の外部へ、撮像装置101の位置姿勢データ900として送出される。
次に、位置姿勢更新部700による撮像装置101の位置姿勢の更新手続きについて説明する。
計測対象物体の計測用線分の位置は、ある基準座標系において定義されているとする。基準座標系の点の座標[xw yw zw]Tと撮像画像上の座標[ux uy]Tとは、透視投影変換の行列Pにより以下のような関係がある。
Figure 2008286756
ここで、hは同次座標変換の表現として、求めたhを用いて[ux uy]Tを計算する。また、R11, R12, R13, R21, R22, R23, R31, R32, R33を要素とする行列R(3×3行列)を基準座標系における姿勢の回転行列、t=[tx ty tz]を平行移動ベクトルとすると上式のPは以下のように表せる。
Figure 2008286756
ここで、fx, fyは水平・垂直方向の焦点距離であり、px, pyは撮像画像面における水平・垂直方向の主点座標とする。
推定する撮像装置の位置姿勢の誤差が小さいかどうかを、推定している位置姿勢から観測されるであろうモデルの投影位置と、実際の撮像画像面上の観測位置との差が小さくなるように最適化計算を行うことで求めることができる。
ここでは、観測位置と投影位置とのずれを表す誤差関数Eを用いる。Eは、カメラの位置t=[tx ty tz]T、姿勢ω=[ωx ωy ωz]T、観測対象点の基準座標系での位置xw=[xw yw zw]Tを入力とする関数とする。投影位置をu’=[u’x u’y u’z]T、観測位置をu=[ux uy]Tとすると、撮像画像上での誤差は、それらの差として表現できる。
Figure 2008286756
一般に、位置姿勢および観測対象点の位置の関係は、非線形なので上式のEも入力に対して非線形関数となる。
本実施形態では、観測位置u=[ux uy]Tとの画面上の誤差は、計測用線分の撮像画像上への投影された線分となる。そこで、投影した計測用線分と直交して、なおかつ観測位置u=[ux uy]Tを通る直線が、投影した計測用線分と交差する点をu’’=[u’’x u’’y]Tとし、
Figure 2008286756
を誤差関数として用いる。
撮像装置の位置姿勢が僅かに変化する範囲において、上式を1次のテイラー展開を用いて線形近似すると以下のように表せる。
Figure 2008286756
E’0は、カメラの位置t0=[tx 0 ty 0 tz 0]T、姿勢ω0=[ωx 0 ωy 0 ωz 0]T、対象点座標xw 0=[xw 0 yw 0 zw 0]T、観測位置u0=[ux 0 uy 0]Tを代入したときの投影位置と観測位置の差、つまり誤差を示す。
これにより、t0、ω0、x0の近傍において、線形化された式を用いてΔtx,Δty,Δtz,Δωx,Δωy,Δωz,Δxw,Δyw,Δzwを求め、t0、ω0、x0に補正値として加えることによって、誤差を少なくすることができる。
通常、方程式の数と変数の数は一致しないため、多数の参照点の情報を用いて最小二乗法によって補正値Δを求める。
そこで、補正式デルタについてまとめる。まず、各変数の偏微分をまとめた行列をJとし、補正ベクトルΔと誤差ベクトルE’は上式より、
Figure 2008286756
と書くことができる。Jの転置行列JTを左右に掛け合わせて、補正ベクトルΔの式としてまとめる以下のように表せる。
Figure 2008286756
補正ベクトルΔの値が小さくなるまで更新することで、精度の良い位置姿勢を求めることが可能となる。
上述した方法は、Newton法による求解法を示しているが他の方法により最適化計算を行っても構わない。本実施形態においては、観測される線分と推定する位置姿勢に従って投影されたモデルの線分との観測画面上での差が小さくすることができれば良いので、公知の非線形最適化手法を適用することで本発明の効果は得られる。例えば、おおよその推定中の位置姿勢に対して、その各変数値の周辺に僅かな差を有するランダムな組み合わせを多数生成して、それぞれの組み合わせに対して誤差を求めて、誤差の値が小さい組み合わせを利用する方法でも同様な効果は得られる。
次に、本実施形態の位置姿勢計測装置100を複合現実感に適用した例を示す。
図2は、本実施形態の位置姿勢計測装置100を用いて、計測対象物体への仮想物体CGの重合表示を行う複合現実感技術を実現した場合の模式図である。
計測対象物体10は、その形状が既知の3次元の物体であるとする。曲面を有する構成面は、複数の面で構成されているものとする。また、計測対象物体の観察角度は特に既定されていない。
撮像装置101で撮像した画像は、位置姿勢計測装置100の撮像装置入力部200より入力される。また、撮像装置101は、画像を合成するためにクロマキー合成装置920の画像入力部921にも接続されている。また、位置姿勢計測装置100では、計測対象物体10の3次元モデル102が既に登録されているものとする。
撮像画像中に計測対象物体10が存在する場合、位置姿勢計測装置100は、上述した処理により、撮像装置101の位置姿勢測定結果を位置姿勢出力部701より出力する。
CG描画装置910は、位置姿勢入力部911より撮像装置101の位置姿勢を入力し、入力した位置姿勢をCGの視点位置として仮想物体をCG描画する。そして、CG描画装置910は、CG描画された仮想物体の画像をCG画像出力部912より出力する。
図示の例では、CG描画装置910は計測対象物体10の上に仮想物体である2つの円柱941が描画され、仮想物体CG画像940のような画像がCG画像出力部912より出力される。また、背景色はクロマキー合成装置920で設定したクロマキー対応色とする。
クロマキー合成装置920では、画像入力部921から入力された撮像装置101による撮像画像上に、クロマキー対象画像入力部922からの仮想物体CG画像940を取り込む。そして、クロマキー合成装置920は、クロマキー対応色とした領域を透明にして撮像画像上に合成して、得られた合成画像930をクロマキー合成画像出力部923より出力する。こうして出力された合成画像930は、撮像した計測対象物体の上に仮想物体CGである円柱が2つ描画されたものとなる。
例えば、本実施形態において、実際の部品とCADで設計中の仮想部品を画面で観察することが可能となり、部品同士の干渉などをチェックすることができる。また、合成画像930をHMD(Head Mount Display)を用いて観測するようにすれば、作業者の確認も容易になって好ましい。また、その際、撮像装置101と視線方向を同じ向きに設定しておけば、頭部の位置姿勢と観察している現実空間を一致することができるため複合現実感による作業性の向上が期待できる。さらに、位置姿勢計測装置100とCG描画装置910とクロマキー合成装置920を同一の計算機上のプログラムで実現することも可能である。
図3に、撮像画像と計測対象物体の計測用線分の関係を示す。図3の(a)は、撮像装置101で撮像された画像である。図3の(b)中の線分は、位置姿勢計測装置100の計測用線分抽出部500から計測用線分投影部501により撮像画像上に投影された線分である。さらに、図3の(b)中の白丸は、投影された計測用線分を計測用線分分割部502により分割して得られた分割点のうちの、可視検出部600により可視判定されたエッジ探索対象点である。
図3の(b)中のエッジ探索対象点から、図3の(a)の撮像画像上の計測対象物体のエッジを、投影した計測用線分に対して垂直方向に探索する様子を図3の(c)に示す。各白丸で示したエッジ探索対象点の位置から伸びている短い線分は、図3の(a)に示した撮像画像中の計測対象物体10の観測されるエッジまでの距離を示す。図3の(c)の線分とエッジまでの距離が短くなればなるほど、推定している撮像装置101の位置姿勢の精度は良くなる。
次に、本実施形態によるモデル読出部400と構成面抽出部401および計測用線分抽出部500について、より詳細に説明する。
図4Aに示したように、計測対象物体の3次元モデルとして四角形ABCDが1つある場合について説明する。図4Bは、図4Aの四角形ABCDの3次元モデルと、その3次元モデルから構成面及び計測用線分を抽出する処理を説明した図である。
計測対象物体の3次元モデル102は、各頂点の座標である点リスト、各点を結ぶ線分リスト、そして面を構成する面リストから構成される。一般に、CADやCGのデータの多くは、このようなモデル記述に類似している。
本実施形態においては、計測用線分抽出部500で計測用線分であるかどうかを指定する属性が3次元モデル102の線分リストの属性として追加される。
まず、構成面抽出部401は、計測対象物体の構成面の描画に使われる面を3次元モデル102から抽出する。ここでは、抽出された構成面データ302として、ア(1,2,3)、イ(−3,4,5)の三角形ABCおよび三角形ACDの2つの三角形が抽出される。面リスト中の数値は線分リストの番号を意味し、線分リストの括弧内の記号は点リストの座標を示す。また、面リストにマイナスが付いているものは、線分リストに登録されている線分の始点・終点が逆になったものである。この構成面データ302は、構成面描画部402により利用される。
次に、計測用線分データ304が計測用線分抽出部500により抽出される処理について説明する。計測用線分抽出部500では、3次元モデル102の線分リストのデータを抽出対象とする。ここで、線分(A,C)は、計測対象物体の表面加工や色によって撮像画像上では観測されにくいエッジとする(読み出し部が判断して、属性を付加するのか?)。そのため、位置合わせ用の計測用線分としては用いない。そこで、線分リストには、計測用線分であるか否かを示す属性が付与される。図4Bの例では、線分リスト中の各線分に、計測用線分として用いる場合は属性値“T”が、そうでない場合は属性値“F”が付与されている。
計測用線分抽出部500は、線分リストから属性値が“T”であるのものを抽出することで、計測用線分データ304に書き出す。
図4Bの例では、線分リスト中の(C,A)の線分に属性値にFが設定されている。計測用線分抽出部500は、線分リスト中の属性値Fが付与されている線分以外の線分、すなわち属性値Tが設定されている4つの線分(A,B)、(B,C)、(C,D)、(D,A)を抽出することになる。
なお、属性値が登録できないCADやCGモデラーを使用する場合は、線分の色を指定する部分に、計測用線分であるかどうか判別できるような属性値の指定を記述するようにしても良い。例えば、色の属性値の数値をビットで表現したときの最下位ビットを0もしくは1として、1のときは計測用線分として0のときはそうでないというように設定することも可能である。いずれにしても、属性の抽出方法が計測用線分抽出部500と3次元モデル102の属性と対応していれば良い。
なお、上記では、計測対象物体の3次元モデル102の線分リストに属性を追加、付与する方法を説明した。しかしながら、本発明の構成においては、計測対象物体の3次元モデル102から構成面のデータと計測用線分のデータが抽出できる仕組みがあれば良いので、上記記載の方法に限定されるものではない。例えば、3次元モデルデータの構成面を形成する線分から、撮像画像のエッジの検出に用いる計測用線分を、隣接する構成面の特性に基づいて抽出することも可能である。
より具体的には、3次元モデルの幾何学的な特徴を用いて計測用線分を抽出することも可能であり、以下、その方法を説明する。まず、計測対象物体の3次元モデルに複数の平面が設定されているものとする。平面と平面の成す角度は、平面の法線ベクトル同士の角度から求められる。そこで、隣接する平面との角度がある程度大きい場合は、照明による光の反射光量の違いで撮像画像上においてエッジとして観察されやすい。よって、この条件を計測用線分抽出部500において抽出することとする。すなわち、隣接する平面との角度を求め、既定した値よりも法線同士のなす角度が大きい場合に隣接するエッジを計測用線分として抽出する。これにより、撮像画像上の計測対象物体のエッジに対応した計測用線分のデータセットとして利用できる情報を抽出することができる。
また、3次元モデルの構成面の色が、現実空間にある計測対象物体を構成する面の色と対応が取れている場合は、その情報を利用して計測用線分の抽出ができる。この場合、計測用線分抽出部500において隣接する面と色相・濃度が異なる隣接平面の一部の線分を計測用線分として抽出する。例えば、計測対象物体に社名や製品名のロゴが大きく記載されている場合などは、ロゴを構成する文字の平面の色と文字外側の平面の色が指定されていれば良い。その色の違いから、撮像画像上のロゴの輪郭部分に相当する線分付近では濃度勾配が大きくなっており、観測エッジとして観測されやすい。これにより、実際の撮像画像の観測エッジと対応した計測用線分データ304を抽出することが可能となる。
以上説明した、本実施形態の位置姿勢計測装置100の処理手順について、図5のフローチャートを参照して更に説明する。
ステップS501において、モデル読出部400は3次元モデル102を例えばハードディスク(不図示)から読み出す。ステップS502において、構成面抽出部401は、ステップS501で読み出した3次元モデル102から構成面データ302を抽出し、例えばRAMで構成された情報保持部300に格納する。ステップS503において、計測用線分抽出部500は、ステップS501で読み出した3次元モデル102から、計測用線分を抽出し、計測用線分データ304として登録する。
より詳しくは、3次元モデル102の構成面を形成する線分の中から、撮像画像におけるエッジの検出に用いるべき計測用線分を抽出する。なお、図4Bで上述したように、計測用線分の抽出方法としては、
・3次元モデル102の各線分に計測用線分としての利用の適否を示す属性を付与しておき、計測用線分抽出部500がその属性に従って計測用線分を抽出する、
・計測用線分抽出部500が、3次元モデル102に登録されている線分のうち、隣接する構成面の法線方向の差が閾値を越える場合に、当該隣接する構成面に挟まれた線分を計測用線分として抽出する、
・計測用線分抽出部500が、3次元モデル102に登録されている線分のうち、隣接する構成面の色の差が閾値を越える場合に、当該隣接する構成面に挟まれた線分を計測用線分として抽出する、
等が挙げられる。
次に、ステップS504において、構成面描画部402は、ステップS502で取得された構成面データ302に基づいて撮像画像上における構成面を描画する。ステップS505において、計測用線分投影部501は、ステップS503で取得された計測用線分データ304を撮像画像上に投影する。
ステップS506において、可視検出部600は、構成面によって隠されない計測用線分を検出し、選択する。例えば、位置姿勢データ305によって示される位置姿勢に基づいて、投影された計測用線分のうち、構成面の奥行き情報と比較して、視点側に位置する計測用線分を可視である計測用線分として検出、選択する。ステップS507において、エッジ距離算出部602は、ステップS506で検出された計測用線分について、撮像画像上におけるエッジ距離の算出を行う。上述したように、本実施形態では、計測用線分分割部502によって得られた分割点(代表点)からエッジが探索され、計測用線分とエッジとの距離が算出される。算出された距離は、距離データ306として情報保持部300に保持される。ステップS508において、位置姿勢更新部700は、距離データ306に基づいて撮像装置101と計測対象物体との相対的な位置姿勢を算出し、算出結果により位置姿勢データを更新する。
<他の実施形態>
以上、実施形態とその変形例について説明したが、本願発明は、カメラと本発明の処理手段を実施する装置があれば良い。従って、例えば、本発明の処理構成を携帯電話や携帯型のコンピュータで実施するプログラムという形で処理を実行させても同じ効果が得られる。さらに、位置姿勢の計測結果を利用して、近隣の施設や場所に関する情報を呈示するような2次的なサービスを実施することも可能である。
すなわち、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したプログラムである。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
プログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記録媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布するという形態をとることもできる。この場合、所定の条件をクリアしたユーザに、インターネットを介してホームページから暗号を解く鍵情報をダウンロードさせ、その鍵情報を使用して暗号化されたプログラムを実行し、プログラムをコンピュータにインストールさせるようにもできる。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれて前述の実施形態の機能の一部或いは全てが実現されてもよい。この場合、機能拡張ボードや機能拡張ユニットにプログラムが書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行なう。
実施形態に係る位置姿勢計測装置の機能構成を示すブロック図である。 実施形態に係る位置姿勢計測装置を、複合現実感技術を用いて仮想物体CGを撮像装置の位置姿勢に合わせて描画する構成を説明した図である。 実施形態に係る位置姿勢計測装置において、撮像画像と計測用線分の代表点と撮像画像のエッジを探索する様子を説明するための図である。 実施形態に係る位置姿勢計測装置で用いられる計測対象の3次元モデルを示す図である。 図4Aに示される3次元モデルからモデル読出部によって読み出される抽出されるデータを説明した図である。 実施形態に係る位置姿勢計測装置の処理を示すフローチャートである。

Claims (14)

  1. 計測対象物体を撮像する撮像装置の前記計測対象物体に対する相対的な位置姿勢を計測する位置姿勢計測装置であって、
    保持されている前記計測対象物体の3次元モデルデータに基づいて前記計測対象物体の構成面を抽出する構成面抽出手段と、
    前記3次元モデルデータの前記構成面を形成する線分から、撮像画像のエッジの検出に用いる計測用線分を、隣接する構成面の特性に基づいて抽出する線分抽出手段と、
    前記線分抽出手段で抽出された計測用線分を、前記撮像装置の推定された位置姿勢に基づいて前記撮像画像に投影する線分投影手段と、
    前記構成面抽出手段で抽出された構成面に基づいて、前記撮像画像に投影された計測用線分のうち前記推定された位置姿勢において可視である計測用線分を選択する選択手段と、
    前記選択手段により選択された計測用線分と、前記撮像画像の対応するエッジとに基づいて、前記撮像装置の前記計測対象物体に対する相対的な位置姿勢を算出する算出手段とを備えることを特徴とする位置姿勢計測装置。
  2. 前記選択手段は、
    前記推定された位置姿勢を視点として前記計測対象物体の構成面を描画することにより前記推定された位置姿勢から観測したときの構成面の奥行き情報を保持し、
    前記投影された計測用線分のうち、前記奥行き情報と比較して、視点側にある計測用線分を可視である計測用線分として選択することを特徴とする請求項1に記載の位置姿勢計測装置。
  3. 前記算出手段は、
    前記撮像画像に投影された計測用線分に分割点を設定することにより、前記投影された計測用線分を分割する分割手段と、
    前記分割点から前記撮像画像上の画素を探索して、濃度勾配の変化が閾値を越える位置をエッジ位置として検出するエッジ探索手段と、
    前記エッジ探索手段で検出されたエッジ位置と、前記分割点が設定された計測用線分との距離を算出するエッジ距離算出手段と、
    前記エッジ距離算出手段において算出された距離を小さくするように前記撮像装置の位置姿勢を更新する位置姿勢更新手段とを備えることを特徴とする請求項1または2に記載の位置姿勢計測装置。
  4. 前記線分抽出手段は、前記3次元モデルデータに登録されている線分のうち、隣接する構成面の法線方向の差が閾値を越える場合に、当該隣接する構成面に挟まれた線分を計測用線分として抽出することを特徴とする請求項1乃至3の何れか1項に記載の位置姿勢計測装置。
  5. 前記線分抽出手段は、前記3次元モデルデータに登録されている線分のうち、隣接する構成面の色の差が閾値を越える場合に、当該隣接する構成面に挟まれた線分を計測用線分として抽出することを特徴とする請求項1乃至3の何れか1項に記載の位置姿勢計測装置。
  6. 計測対象物体を撮像する撮像装置の前記計測対象物体に対する相対的な位置姿勢を計測する位置姿勢計測装置であって、
    計測対象物体の3次元モデルデータを保持する保持手段と、前記3次元モデルデータは、各線分について撮像画像のエッジの検出に用いる線分であるか否かを示す属性が付与されており、
    前記3次元モデルデータに基づいて前記計測対象物体の構成面を抽出する構成面抽出手段と、
    前記3次元モデルデータから、撮像画像のエッジの検出に用いる線分であることを示す属性が付与されている線分を計測用線分として抽出する線分抽出手段と、
    前記線分抽出手段で抽出された計測用線分を前記撮像装置の推定された位置姿勢に基づいて前記撮像画像に投影する線分投影手段と、
    前記構成面抽出手段で抽出された構成面に基づいて、前記撮像画像に投影された計測用線分のうち前記推定された位置姿勢において可視である計測用線分を選択する選択手段と、
    前記選択手段により選択された計測用線分と、前記撮像画像の対応するエッジとに基づいて、前記撮像装置の前記計測対象物体に対する相対的な位置姿勢を算出する算出手段とを備えることを特徴とする位置姿勢計測装置。
  7. 計測対象物体を撮像する撮像装置の前記計測対象物体に対する相対的な位置姿勢を計測する位置姿勢計測装置の制御方法であって、
    構成面抽出手段が、保持されている前記計測対象物体の3次元モデルデータに基づいて前記計測対象物体の構成面を抽出する構成面抽出工程と、
    線分抽出手段が、前記3次元モデルデータの前記構成面を形成する線分から、撮像画像のエッジの検出に用いる計測用線分を、隣接する構成面の特性に基づいて抽出する線分抽出工程と、
    線分投影手段が、前記線分抽出工程で抽出された計測用線分を前記撮像装置の推定された位置姿勢に基づいて前記撮像画像に投影する線分投影工程と、
    選択手段が、前記構成面抽出工程で抽出された構成面に基づいて、前記撮像画像に投影された計測用線分のうち前記推定された位置姿勢において可視である計測用線分を選択する選択工程と、
    算出手段が、前記選択工程により選択された計測用線分と、前記撮像画像の対応するエッジとに基づいて、前記撮像装置の前記計測対象物体に対する相対的な位置姿勢を算出する算出工程とを備えることを特徴とする位置姿勢計測装置の制御方法。
  8. 前記選択工程では、
    前記推定された位置姿勢を視点として前記計測対象物体の構成面を描画することにより前記推定された位置姿勢から観測したときの構成面の奥行き情報を保持し、
    前記投影された計測用線分のうち、前記奥行き情報と比較して、視点側にある計測用線分を可視である計測用線分として選択することを特徴とする請求項7に記載の位置姿勢計測装置の制御方法。
  9. 前記算出工程は、
    前記撮像画像に投影された計測用線分に分割点を設定することにより、前記投影された計測用線分を分割する分割工程と、
    前記分割点から前記撮像画像上の画素を探索して、濃度勾配の変化が閾値を越える位置をエッジ位置として検出するエッジ探索工程と、
    前記エッジ探索工程で検出されたエッジ位置と、前記分割点が設定された計測用線分との距離を算出するエッジ距離算出工程と、
    前記エッジ距離算出工程において算出された距離を小さくするように前記撮像装置の位置姿勢を更新する位置姿勢更新工程とを備えることを特徴とする請求項7または8に記載の位置姿勢計測装置の制御方法。
  10. 前記線分抽出工程では、前記3次元モデルデータに登録されている線分のうち、隣接する構成面の法線方向の差が閾値を越える場合に、当該隣接する構成面に挟まれた線分を計測用線分として抽出することを特徴とする請求項7乃至9の何れか1項に記載の位置姿勢計測装置の制御方法。
  11. 前記線分抽出工程では、前記3次元モデルデータに登録されている線分のうち、隣接する構成面の色の差が閾値を越える場合に、当該隣接する構成面に挟まれた線分を計測用線分として抽出することを特徴とする請求項7乃至9の何れか1項に記載の位置姿勢計測装置の制御方法。
  12. 計測対象物体を撮像する撮像装置の前記計測対象物体に対する相対的な位置姿勢を計測する位置姿勢計測装置の制御方法であって、
    保持手段が、計測対象物体の3次元モデルデータを保持する保持工程と、前記3次元モデルデータは、各線分について撮像画像のエッジの検出に用いる線分であるか否かを示す属性が付与されており、
    構成面抽出手段が、前記3次元モデルデータに基づいて前記計測対象物体の構成面を抽出する構成面抽出工程と、
    線分抽出手段が、前記3次元モデルデータから、撮像画像のエッジの検出に用いる線分であることを示す属性が付与されている線分を計測用線分として抽出する線分抽出工程と、
    線分投影手段が、前記線分抽出工程で抽出された計測用線分を前記撮像装置の推定された位置姿勢に基づいて前記撮像画像に投影する線分投影工程と、
    選択手段が、前記構成面抽出工程で抽出された構成面に基づいて、前記撮像画像に投影された計測用線分のうち前記推定された位置姿勢において可視である計測用線分を選択する選択工程と、
    算出手段が、前記選択工程により選択された計測用線分と、前記撮像画像の対応するエッジとに基づいて、前記撮像装置と前記計測対象物体との相対的な位置姿勢を算出する算出工程とを備えることを特徴とする位置姿勢計測装置の制御方法。
  13. 請求項7乃至請求項12のいずれか1項に記載の位置姿勢計測装置の制御方法をコンピュータに実行させるためのコンピュータプログラム。
  14. 請求項7乃至請求項12のいずれか1項に記載の位置姿勢計測装置の制御方法をコンピュータに実行させるためのコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体。
JP2007134583A 2007-05-21 2007-05-21 位置姿勢計測装置及びその制御方法 Expired - Fee Related JP5013961B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007134583A JP5013961B2 (ja) 2007-05-21 2007-05-21 位置姿勢計測装置及びその制御方法
US12/123,125 US8059889B2 (en) 2007-05-21 2008-05-19 Position and orientation measurement apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007134583A JP5013961B2 (ja) 2007-05-21 2007-05-21 位置姿勢計測装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2008286756A true JP2008286756A (ja) 2008-11-27
JP2008286756A5 JP2008286756A5 (ja) 2010-07-08
JP5013961B2 JP5013961B2 (ja) 2012-08-29

Family

ID=40072441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007134583A Expired - Fee Related JP5013961B2 (ja) 2007-05-21 2007-05-21 位置姿勢計測装置及びその制御方法

Country Status (2)

Country Link
US (1) US8059889B2 (ja)
JP (1) JP5013961B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134649A (ja) * 2008-12-03 2010-06-17 Canon Inc 情報処理装置、その処理方法及びプログラム
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2010267232A (ja) * 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定方法および装置
JP2010267231A (ja) * 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定装置及び方法
JP2011118724A (ja) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> カメラ姿勢推定装置およびカメラ姿勢推定プログラム
JP2011179908A (ja) * 2010-02-26 2011-09-15 Canon Inc 3次元計測装置、その処理方法及びプログラム
JP2011239361A (ja) * 2010-05-12 2011-11-24 Fuji Xerox Co Ltd 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
JP2012002761A (ja) * 2010-06-18 2012-01-05 Canon Inc 位置姿勢計測装置、その処理方法及びプログラム
JP2012141962A (ja) * 2010-12-14 2012-07-26 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
WO2012160787A1 (ja) * 2011-05-20 2012-11-29 日本電気株式会社 位置姿勢推定装置、位置姿勢推定方法および位置姿勢推定プログラム
JP2014026670A (ja) * 2013-10-21 2014-02-06 Canon Inc 情報処理装置、その処理方法及びプログラム
EP2759923A2 (en) 2013-01-29 2014-07-30 Konica Minolta, Inc. Writing control device and image forming apparatus
JP2014526099A (ja) * 2011-07-28 2014-10-02 サムスン エレクトロニクス カンパニー リミテッド 平面特性基盤マーカーレス拡張現実システムおよびその動作方法
KR20150024351A (ko) * 2012-05-31 2015-03-06 퀄컴 인코포레이티드 주변 정보에 기초한 포즈 추정
JP2015062017A (ja) * 2014-09-30 2015-04-02 オムロン株式会社 モデル作成装置、モデル作成プログラム、および画像認識システム
JP2015135333A (ja) * 2015-02-13 2015-07-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
KR101749017B1 (ko) 2014-07-10 2017-06-19 퀄컴 인코포레이티드 주변 정보를 이용하는 스피드-업 탬플릿 매칭
EP3239931A1 (en) 2016-03-29 2017-11-01 Fujitsu Limited Image processing apparatus and image processing method
JP2017201493A (ja) * 2016-05-06 2017-11-09 村田機械株式会社 柱状物体認識方法、柱状物体認識装置および無人走行車
JP2020148625A (ja) * 2019-03-13 2020-09-17 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
US8401276B1 (en) * 2008-05-20 2013-03-19 University Of Southern California 3-D reconstruction and registration
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
KR101553522B1 (ko) * 2008-12-29 2015-09-16 삼성전자 주식회사 로봇 및 그 제어 방법
JP5602392B2 (ja) * 2009-06-25 2014-10-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US8442305B2 (en) * 2009-06-30 2013-05-14 Mitsubishi Electric Research Laboratories, Inc. Method for determining 3D poses using points and lines
JP5393318B2 (ja) * 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
US20120159292A1 (en) * 2010-12-16 2012-06-21 Oce-Technologies B.V. Method of processing an object-based image file with content type dependent image processing algorithms
US9746988B2 (en) * 2011-05-23 2017-08-29 The Boeing Company Multi-sensor surveillance system with a common operating picture
JP5915129B2 (ja) * 2011-12-06 2016-05-11 富士通株式会社 データ処理プログラム、データ処理方法、およびデータ処理装置
US9094670B1 (en) * 2012-09-25 2015-07-28 Amazon Technologies, Inc. Model generation and database
US9761053B2 (en) 2013-08-21 2017-09-12 Nantmobile, Llc Chroma key content management systems and methods
JP5818857B2 (ja) * 2013-10-24 2015-11-18 キヤノン株式会社 情報処理装置およびその制御方法
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
US10613231B2 (en) * 2014-12-18 2020-04-07 Javad Gnss, Inc. Portable GNSS survey system
US9807365B2 (en) * 2015-12-08 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
CN110753952A (zh) * 2017-02-28 2020-02-04 优质视觉技术国际公司 3d模型到测试对象的自动对准
US10841486B2 (en) * 2017-07-20 2020-11-17 Eclo, Inc. Augmented reality for three-dimensional model reconstruction
JP6996200B2 (ja) * 2017-09-29 2022-01-17 富士通株式会社 画像処理方法、画像処理装置、および画像処理プログラム
JP7059701B2 (ja) * 2018-03-08 2022-04-26 富士通株式会社 推定装置、推定方法、及び推定プログラム
JPWO2022059335A1 (ja) * 2020-09-18 2022-03-24

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62269287A (ja) * 1986-05-16 1987-11-21 Toyota Central Res & Dev Lab Inc 視覚認識装置
JPH04130587A (ja) * 1990-09-20 1992-05-01 Agency Of Ind Science & Technol 3次元画像評価装置
JPH05157518A (ja) * 1991-12-09 1993-06-22 Toyota Central Res & Dev Lab Inc 物体認識装置
JPH10162147A (ja) * 1996-07-09 1998-06-19 General Electric Co <Ge> 被検体内のカメラ開口の位置と向きを決定する装置
JPH1151611A (ja) * 1997-07-31 1999-02-26 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2000074643A (ja) * 1998-08-27 2000-03-14 Suzuki Motor Corp 三次元距離データを変換する方法および装置並びにデータ変換用プログラムを記憶した記憶媒体
JP2000088554A (ja) * 1998-09-08 2000-03-31 Nippon Telegr & Teleph Corp <Ntt> 物体の特徴点探索方法及びその処理プログラムを記録した記録媒体ならびに特徴点探索装置
JP2002063567A (ja) * 2000-08-23 2002-02-28 Nec Corp 物体位置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法
JP2003023562A (ja) * 2001-07-06 2003-01-24 Minolta Co Ltd 画像撮影システムおよびカメラシステム
JP2003058896A (ja) * 2001-08-10 2003-02-28 Nec Corp 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
JP2003271993A (ja) * 2002-03-18 2003-09-26 Hitachi Ltd モニタ画像処理方法及び画像モニタシステム並びに保全作業システム
JP2004326314A (ja) * 2003-04-23 2004-11-18 Shimizu Corp 3次元位置姿勢の画像推定方法
JP2005033319A (ja) * 2003-07-08 2005-02-03 Canon Inc 位置姿勢計測方法及び装置
JP2006294003A (ja) * 2005-03-15 2006-10-26 Omron Corp 画像処理方法およびその方法を用いた3次元計測方法ならびに画像処理装置
JP2006292417A (ja) * 2005-04-06 2006-10-26 Canon Inc 位置姿勢計測方法及び装置
JP2007122160A (ja) * 2005-10-25 2007-05-17 Nikki Plantec Kk モデリング装置およびカメラパラメータの計算方法
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5819016A (en) * 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
US7423666B2 (en) * 2001-05-25 2008-09-09 Minolta Co., Ltd. Image pickup system employing a three-dimensional reference object
EP1521213A3 (en) * 2003-09-30 2006-08-30 Canon Kabushiki Kaisha Index identification method and apparatus

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62269287A (ja) * 1986-05-16 1987-11-21 Toyota Central Res & Dev Lab Inc 視覚認識装置
JPH04130587A (ja) * 1990-09-20 1992-05-01 Agency Of Ind Science & Technol 3次元画像評価装置
JPH05157518A (ja) * 1991-12-09 1993-06-22 Toyota Central Res & Dev Lab Inc 物体認識装置
JPH10162147A (ja) * 1996-07-09 1998-06-19 General Electric Co <Ge> 被検体内のカメラ開口の位置と向きを決定する装置
JPH1151611A (ja) * 1997-07-31 1999-02-26 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2000074643A (ja) * 1998-08-27 2000-03-14 Suzuki Motor Corp 三次元距離データを変換する方法および装置並びにデータ変換用プログラムを記憶した記憶媒体
JP2000088554A (ja) * 1998-09-08 2000-03-31 Nippon Telegr & Teleph Corp <Ntt> 物体の特徴点探索方法及びその処理プログラムを記録した記録媒体ならびに特徴点探索装置
JP2002063567A (ja) * 2000-08-23 2002-02-28 Nec Corp 物体位置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法
JP2003023562A (ja) * 2001-07-06 2003-01-24 Minolta Co Ltd 画像撮影システムおよびカメラシステム
JP2003058896A (ja) * 2001-08-10 2003-02-28 Nec Corp 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
JP2003271993A (ja) * 2002-03-18 2003-09-26 Hitachi Ltd モニタ画像処理方法及び画像モニタシステム並びに保全作業システム
JP2004326314A (ja) * 2003-04-23 2004-11-18 Shimizu Corp 3次元位置姿勢の画像推定方法
JP2005033319A (ja) * 2003-07-08 2005-02-03 Canon Inc 位置姿勢計測方法及び装置
JP2006294003A (ja) * 2005-03-15 2006-10-26 Omron Corp 画像処理方法およびその方法を用いた3次元計測方法ならびに画像処理装置
JP2006292417A (ja) * 2005-04-06 2006-10-26 Canon Inc 位置姿勢計測方法及び装置
JP2007122160A (ja) * 2005-10-25 2007-05-17 Nikki Plantec Kk モデリング装置およびカメラパラメータの計算方法
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8483424B2 (en) 2008-12-03 2013-07-09 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
US8995710B2 (en) 2008-12-03 2015-03-31 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
JP2010134649A (ja) * 2008-12-03 2010-06-17 Canon Inc 情報処理装置、その処理方法及びプログラム
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
JP2010267232A (ja) * 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定方法および装置
JP2010267231A (ja) * 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定装置及び方法
JP2011118724A (ja) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> カメラ姿勢推定装置およびカメラ姿勢推定プログラム
JP2011179908A (ja) * 2010-02-26 2011-09-15 Canon Inc 3次元計測装置、その処理方法及びプログラム
JP2011239361A (ja) * 2010-05-12 2011-11-24 Fuji Xerox Co Ltd 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
JP2012002761A (ja) * 2010-06-18 2012-01-05 Canon Inc 位置姿勢計測装置、その処理方法及びプログラム
JP2012141962A (ja) * 2010-12-14 2012-07-26 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
WO2012160787A1 (ja) * 2011-05-20 2012-11-29 日本電気株式会社 位置姿勢推定装置、位置姿勢推定方法および位置姿勢推定プログラム
JP2014526099A (ja) * 2011-07-28 2014-10-02 サムスン エレクトロニクス カンパニー リミテッド 平面特性基盤マーカーレス拡張現実システムおよびその動作方法
US9405359B2 (en) 2011-07-28 2016-08-02 Samsung Electronics Co., Ltd. Plane-characteristic-based markerless augmented reality system and method for operating same
KR101645613B1 (ko) 2012-05-31 2016-08-05 퀄컴 인코포레이티드 주변 정보에 기초한 포즈 추정
KR20150024351A (ko) * 2012-05-31 2015-03-06 퀄컴 인코포레이티드 주변 정보에 기초한 포즈 추정
EP2759923A2 (en) 2013-01-29 2014-07-30 Konica Minolta, Inc. Writing control device and image forming apparatus
US9118820B2 (en) 2013-01-29 2015-08-25 Konica Minolta, Inc. Writing control device and image forming apparatus
JP2014026670A (ja) * 2013-10-21 2014-02-06 Canon Inc 情報処理装置、その処理方法及びプログラム
KR101749017B1 (ko) 2014-07-10 2017-06-19 퀄컴 인코포레이티드 주변 정보를 이용하는 스피드-업 탬플릿 매칭
JP2015062017A (ja) * 2014-09-30 2015-04-02 オムロン株式会社 モデル作成装置、モデル作成プログラム、および画像認識システム
JP2015135333A (ja) * 2015-02-13 2015-07-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
EP3239931A1 (en) 2016-03-29 2017-11-01 Fujitsu Limited Image processing apparatus and image processing method
US10354402B2 (en) 2016-03-29 2019-07-16 Fujitsu Limited Image processing apparatus and image processing method
JP2017201493A (ja) * 2016-05-06 2017-11-09 村田機械株式会社 柱状物体認識方法、柱状物体認識装置および無人走行車
JP2020148625A (ja) * 2019-03-13 2020-09-17 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP7188201B2 (ja) 2019-03-13 2022-12-13 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
JP5013961B2 (ja) 2012-08-29
US8059889B2 (en) 2011-11-15
US20080292180A1 (en) 2008-11-27

Similar Documents

Publication Publication Date Title
JP5013961B2 (ja) 位置姿勢計測装置及びその制御方法
JP5538667B2 (ja) 位置姿勢計測装置及びその制御方法
US9940756B2 (en) Silhouette-based object and texture alignment, systems and methods
JP5248806B2 (ja) 情報処理装置、情報処理方法
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
US9420265B2 (en) Tracking poses of 3D camera using points and planes
EP1596330B1 (en) Estimating position and orientation of markers in digital images
JP5094663B2 (ja) 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
JP6242334B2 (ja) 平面特性基盤マーカーレス拡張現実システムおよびその動作方法
KR100920225B1 (ko) 영상을 이용한 3차원 그래픽 모델의 정확도 측정 방법 및장치
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
JP2010109783A (ja) 電子カメラ
Crombez et al. 3D point cloud model colorization by dense registration of digital images
Kahn Reducing the gap between Augmented Reality and 3D modeling with real-time depth imaging
TW201523510A (zh) 點雲拼接系統及方法
JP6362401B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP6228239B2 (ja) プリミティブの組を用いてデータをレジストレーションする方法
JP2010239515A (ja) カメラキャリブレーションの算出方法
BARON et al. APPLICATION OF AUGMENTED REALITY TOOLS TO THE DESIGN PREPARATION OF PRODUCTION.
JP2008299670A (ja) 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム
JP2020187557A (ja) 温度画像表示装置、温度画像表示システムおよび温度画像表示プログラム
JP3052926B2 (ja) 三次元座標計測装置
JP2004252815A (ja) 画像表示装置、画像表示方法およびプログラム
JP2012038105A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016024728A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120605

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5013961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees