JP2015090560A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2015090560A
JP2015090560A JP2013229808A JP2013229808A JP2015090560A JP 2015090560 A JP2015090560 A JP 2015090560A JP 2013229808 A JP2013229808 A JP 2013229808A JP 2013229808 A JP2013229808 A JP 2013229808A JP 2015090560 A JP2015090560 A JP 2015090560A
Authority
JP
Japan
Prior art keywords
target object
image
orientation
correction
approximate position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013229808A
Other languages
English (en)
Other versions
JP6271953B2 (ja
JP2015090560A5 (ja
Inventor
その子 宮谷
Sonoko Miyatani
その子 宮谷
小林 一彦
Kazuhiko Kobayashi
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013229808A priority Critical patent/JP6271953B2/ja
Priority to US14/531,879 priority patent/US9495750B2/en
Publication of JP2015090560A publication Critical patent/JP2015090560A/ja
Publication of JP2015090560A5 publication Critical patent/JP2015090560A5/ja
Application granted granted Critical
Publication of JP6271953B2 publication Critical patent/JP6271953B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】 ノイズがある状況においても、ロバストな位置姿勢計測を行うこと。
【解決手段】 対象物体が含まれる画像を取得し、取得した画像に含まれる対象物体の概略位置姿勢を取得し、取得した画像で前記対象物体の影領域に関する情報を推定し、推定された影領域に関する情報に基づいて、概略位置姿勢を補正し、補正された概略位置姿勢と保持するモデル情報とに基づいて、画像中の対象物体の位置姿勢を導出する。
【選択図】 図2

Description

本発明は、計測対象物体の位置姿勢計測の技術に関する。
生産現場では、生産効率向上のため、ロボットによる自動化が進められている。ロボットによる組み立て作業では、対象物体を認識し、正確な位置姿勢を取得する必要がある。これを実現する方法として、対象物体を撮影した輝度画像や距離画像を用いた方法が開発されている。輝度画像や距離画像には、様々な要因で発生するノイズが混在しているため、ノイズに対してロバスト性の高い方法が望まれる。
特許文献1では、対象物体を撮影した輝度画像や距離画像から得られる計測データを形状モデルに当て嵌めるモデルフィッティングの手法により、カメラの位置姿勢計測を行う。具体的には、対象物体の概略の位置姿勢である概略位置姿勢を与え、輝度画像から抽出したエッジや距離画像から得られる距離値が形状モデルとより正しくフィッティングするように位置姿勢を最適化していく。カメラの位置姿勢計測をロバスト化する手段として、カメラの位置姿勢が取り得る範囲に所定のサンプリング間隔で複数の概略位置姿勢を生成して、それぞれの概略位置姿勢においてフィッティングの繰り返し計算を行い最も成績の良いフィッティング結果をフィッティングの最終結果とする方法が提案されている。
特開2012−26974号公報
しかしながら、特許文献1に記載の方法では、対象物体を撮影した輝度画像や距離画像に影や鏡面反射などのノイズが存在する場合、必ずしも最適な位置姿勢が得られるとは限らず、精度やロバスト性が低下する。例えば、対象物体の周囲に生じた影に起因するエッジと形状モデルのエッジとを誤対応させてしまうことにより、局所解に陥り、正しいフィッティング結果が得られないことがある。
本発明は、以上の課題を鑑みてなされたものであり、ロバスト性の高い位置姿勢計測を行うことを目的とする。
上記の課題を解決するために、例えば、本発明の画像処理装置は、対象物体が含まれる画像を取得する画像取得手段と、前記対象物体のモデル情報を保持する保持手段と、前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、前記取得された画像中で前記対象物体の影領域に関する情報を推定する推定手段と、前記推定された影領域に関する情報に基づいて、前記概略位置姿勢を補正する補正手段と、前記補正手段によって補正された概略位置姿勢と前記モデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備える。
また、例えば、本発明の画像処理装置は、対象物体が含まれる画像を取得する画像取得手段と、前記対象物体のモデル情報を保持する保持手段と、前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、前記取得された画像中で前記対象物体の反射領域を推定する推定手段と、前記推定された反射領域に基づいて、前記概略位置姿勢を補正する補正手段と、前記補正手段によって補正された概略位置姿勢と前記モデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備える。
また、例えば、本発明の画像処理装置は、対象物体が含まれる画像を取得する画像取得手段と、前記対象物体のモデル情報と前記対象物体の取り得る位置姿勢の確率情報と保持する保持手段と、前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、前記補正手段は、前記保持する確率情報に基づいて、前記概略位置姿勢を補正手段と、前記補正手段で補正された概略位置姿勢と前記保持手段で保持するモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備える。
本発明によれば、ロバスト性の高い位置姿勢計測を行うことができる。
第1〜第3の実施形態におけるシステムの構成を示した図。 第1〜第3の実施形態におけるプログラムのモジュール構成を示す図。 第1〜第3の実施形態における位置姿勢算出処理手順を示したフローチャート。 第1の実施形態における影の幅の算出方法の原理を示す図。 第1〜第3の実施形態における位置姿勢算出処理の詳細な手順を示したフローチャート。 第1〜第3の実施形態における対応点の探索の原理を示す図。 第1〜第3の実施形態におけるエッジの投影像と検出されたエッジの関係を説明する図。 (a)第1の実施形態における計測対象物体101を撮影した輝度画像の模式図 (b)第1の実施形態における計測対象物体101を撮影した輝度画像801の探索ライン805における輝度値の変化を示した図。 第2の実施形態における計測対象物体905上で鏡面反射が発生した状況を示した模式図。 第2の実施形態における事前情報算出のための具体的な処理手順を示したフローチャート。 第3の実施形態における計測対象物体1101の安定姿勢の例を示す図。 第4の実施形態におけるロボットシステムの構成例を示す図。 第3の実施形態における計測対象物体1101とカメラ102の姿勢関係を示す図。 画像処理装置140に適用可能なハードウェア構成例を示すブロック図。
以下、添付図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1は、第1の実施形態における画像処理装置のシステム構成の模式図である。
計測対象物体101は、位置及び姿勢(位置姿勢)を計測する対象となる物体である。本実施形態では、説明を簡単にするために、位置姿勢計測対象としての計測対象物体101は、図1に示すごとく、1つのみがある位置に載置されているものとする。しかし、以下に説明する位置姿勢計測処理は、計測対象物体101の形状や個数、載置形態に大きく依存するものではない。例えば、複数の異形状の計測対象物体が混合されて山積みされているような状態において、ある計測対象物体の位置姿勢を計測する場合にも、本実施形態は適用可能である。
撮像装置102は、現実空間の静止画若しくは動画像を撮像するものであり、本実施形態では、プロジェクタ103によって光が照射された計測対象物体101を撮像するために使用する。そして撮像装置103は、撮像した画像(撮像画像)を、画像処理装置104に対して送出する。撮像装置102の内部パラメータ(焦点距離、主点位置、レンズ歪みパラメータ)は、例えば、前述のZhangの方法により事前に校正しておく。
プロジェクタ103は、計測対象物体101に所定の光を照射するために使用する。所定の光としては、一様な光(全点灯光)や距離画像を取得するためのスリット光などでいずれであってもかまわない。プロジェクタ103は、液晶プロジェクタである。プロジェクタの内部パラメータ(焦点距離、主点位置、レンズ歪みパラメータ)は、例えば、下記の文献に開示される方法により事前に校正しておく。なお、スリット光の投影ができればプロジェクタ103以外の装置を用いても良く、例えば、DMD(デジタルミラーデバイス)やLCOSを用いたプロジェクタであってもよい。
Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.11, pp.1330−1334, 2000
画像処理装置104は、撮像装置102およびプロジェクタ103と接続されており、プロジェクタ103及び撮像装置102の動作制御を行うと共に、撮像装置103から得られた撮像画像を用いて、計測対象物体101の位置姿勢を求める。本発明の具体的な処理が記述されたプログラムを内部に保持し、内蔵するCPUがそのプログラムを実行することで、計測対象物体101の位置姿勢計算を実行する装置である。また、画像処理装置104は、キーボード、マウスまたはモニタなどのユーザインターフェースを備える。
次に、画像処理装置104の機能構成例について、図2のブロック図を用いて説明する。計測情報入力部201は、撮像装置102が取得した輝度画像を計測情報として画像処理装置に取り込む(画像取得)。
事前情報保持部202は、プロジェクタ103と撮像装置102との位置関係情報を事前情報として保持する。プロジェクタ103と撮像装置102との位置関係情報は、プロジェクタからパターン光を照射してカメラで撮影し、例えば以下の文献に記載された方法で求める。
M. Kimura, “Projector Calibration using Arbitrary Planes and Calibrated Camera”Computer Vision and Pattern Recognition、 CVPR、 2007.
また、事前情報保持部202は、計測対象物体101の3次元モデル情報を保持する。3次元モデル情報は、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをComputer Graphics分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、計測対象物体101の形状を模した3次元幾何モデルであって、ポリゴン要素で構成される3次元幾何モデルを用いる。しかしながら、モデル情報はこれにかぎられるものではなく、例えば2次元的なモデルであってもかまわない。
概略位置姿勢取得部203は、撮像装置2030に対する計測対象物体の位置及び姿勢の概略値を取得する(概略位置姿勢取得)。入力された概略位置姿勢は、計測対象物体101の位置姿勢を求める為の繰り返し演算の初期値として与えられるものである。本実施形態では、画像処理装置140は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。
しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮像した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチング(パターンマッチング)を行うことによって、計測対象物体101の大まかな位置と姿勢を推定してもよい。あるいは、他のセンサによる計測対象物体101の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。
センサは、例えばトランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめ分かっている場合にはその値を概略値として用いる。
概略位置姿勢補正部204は、概略位置姿勢取得部203が取得した概略位置姿勢を、事前情報保持部202が保持している事前情報に基づいて補正する。具体的な処理は後述するが、本実施形態では、概略位置姿勢を計測対象物体101の影が存在しない方向(影と反対方向)にシフトさせることによって、位置姿勢算出処理におけるエッジの誤対応を防ぐことができる。
位置姿勢導出部205は、概略位置姿勢補正部204によって補正された概略位置姿勢と3次元モデル情報とに基づいて、計測対象物体の位置姿勢を導出(算出)する。具体的には、撮像装置102によって撮像された撮像画像に基づいて、不図示のエッジ検出部が、計測情報である輝度画像上からエッジを検出する。そして、不図示の対応付け部が、保持しているモデルエッジとの対応付けと対応点間の距離の総和が最小となる位置姿勢を最小二乗法による最適化計算を繰り返すことで、計測対象物体101の位置姿勢を導出する。
以上が、画像処理装置104の構成の一例についての説明である。
次に、本実施形態における位置姿勢算出の処理手順について説明する。図3は、本実施形態における位置姿勢算出の処理手順を示すフローチャートである。
(ステップS301)
まず、ステップS301において、計測情報入力部201が、撮像装置102から計測対象物体101を撮影した輝度画像を取得し、位置姿勢導出部205に送る。輝度画像は、プロジェクタ103を用いて照明を照射した計測対象物体101を、撮像装置102で撮影された画像である。しかしながら、予め外部のメモリやネットワーク上に保持しておいたものを計測情報入力部201が読み込んだものであってもよい。
(ステップS302)
次に、ステップS302において、概略位置姿勢補正部204が、事前情報保持部202が保持する事前情報に基づいて、計測対象物体101の概略位置姿勢を補正する。概略位置姿勢の補正方向は、計測対象物体101からプロジェクタ103までの方向ベクトルを、撮像装置102の画像面に投影したときの方向ベクトルとする。概略位置姿勢の補正量は、プロジェクタ103からの照明によって生じた計測対象物体101の影の領域の幅とする。
本実施形態では、補正方向を以下のように求める。
まず、計測対象物体101の3次元位置(Xo、Yo、Zo)及びプロジェクタ103の3次元位置(Xp、Yp、Zp)を撮像装置102の画像面に投影するためのプロジェクション行列Pを求める。計測対象物体101の3次元位置は、カメラに対する計測対象物体の概略位置姿勢の位置成分とする。プロジェクタ103の3次元位置は、撮像装置102に対する計測対象物体101の概略位置姿勢及び事前情報であるプロジェクタとカメラの位置関係情報に基づいて求める。プロジェクション行列Pは、カメラパラメータK(式1)と世界座標系からカメラ座標系への変換行列RT(式2)の積K・RTで表される。
Figure 2015090560
Figure 2015090560
ここでは、カメラ座標系を世界座標系と設定する。これにより、プロジェクション行列Pは(式3)となる。なお、カメラパラメータKの各要素a、b、c、d、eは、カメラ固有のパラメータであり上記のように予め求めておく。
Figure 2015090560
次に、プロジェクション行列P、計測対象物体101の3次元位置の斉次座標(Xo、Yo、Zo、1)と撮像装置102の3次元位置の斉次座標(Xp、Yp、Zp、1)、及びそれぞれを画像面に投影した点の斉次座標(uo、vo、1)、(up、vp、1)の関係式(式4)、(式5)から、計測対象物体101の画像面での位置(uo、vo)とプロジェクタ103の画像面での位置(up、vp)を求める。そして、計測対象物体101の画像面での位置(uo、vo)からプロジェクタ103の画像面での位置(up、vp)へのベクトルr’=(up−uo、vp−vo)を求める。そして、更に単位ベクトルr=r’/|r’|に変換し、これを補正方向とする。
Figure 2015090560
Figure 2015090560
本実施形態では、補正量は、事前情報保持部202が保持する3次元モデル情報から取得される計測対象物体101の高さ、プロジェクタ103と撮像装置102との位置関係情報及び計測対象物体101の概略位置姿勢を用いて求める。
具体的には、図4に示したように、計測対象物体101と水平面とのなす角度をθとする。そして、事前情報保持部202が保持する3次元モデルから計測対象物体101の高さhを取得する。
計測対象物体101の高さは、計測対象物体101が配置される向きが予め決まっている場合には、決まっている向きで配置したときの配置面からの高さとする。また、予め決まっていない場合には、計測対象物体101が安定する向きで配置したときの高さとする。例えば、安定する向きは、計測対象物体101の重心位置が低くなる向きに設定すればよい。
また、計測対象物体101を囲む最小のバウンディングボックスを用いてもよい。この場合、バウンディングボックスの各面が配置面に接する配置方法(6つ)のうち、計測対象物体101の重心が最も低くなる向きに配置したときのバウンディングボックスの高さとする。ただし、これに限らず起こり得る確率が高い計測対象物体101の姿勢における高さが設定できれば方法は何でもよい。
そして、取得したhとcosθ及び撮像装置102から計測対象物体までの距離Hと撮像装置102とプロジェクタ103間の距離Bとの比B/Hとを乗じたもの(h×cosθ×(B/H))を影の幅として求める。そして、求めた影の幅を補正量wとする。
上記で述べた方法で求め補正方向及び補正量に基づいて、計測対象物体101の概略位置姿勢を補正する。具体的には、概略位置姿勢(位置X、姿勢R)の位置Xにw・rを加算する。即ち、補正後の概略位置姿勢は、位置(X+w・r)、姿勢Rとなる。
これにより、概略位置姿勢が影の存在しない方向にシフトするので、以降の位置姿勢算出処理において、モデルのエッジが影領域に起因するエッジに誤対応してしまい、局所解に陥ることを防止することができる。
なお、補正方向または補正量を画像処理装置104に備えられたユーザインターフェースを介してユーザが手動で値を指定してもよい。
(ステップS303)
ステップS303において、ステップ302で補正した概略位置姿勢を用いて、以下で説明する処理により計測対象物体101の位置姿勢を算出する。
図5はステップS303で示した、概略位置姿勢を用いた最適化計算により位置姿勢を算出する位置姿勢算出処理の詳細な手順を示したフローチャートである。
本実施形態では、Gauss−Newton法により計測対象物体の位置姿勢(以下、sで表す)の概略位置姿勢を反復演算により繰り返し補正することにより位置姿勢を算出する。ここでは、輝度画像上で検出されたエッジと推定される位置姿勢に基づいて画像上に投影される形状モデルのエッジとの距離の総和が最小化されるように位置姿勢を最適化する。より具体的には、輝度画像上での点と直線の符号付距離、1次のテイラー展開によってそれぞれ物体の位置姿勢の微小変化の1次関数として表現する。そして、符号付距離が0になるような位置姿勢の微小変化に関する線形の連立方程式を立式して解くことにより、物体の位置姿勢の微小変化を求めて位置姿勢を補正することを繰り返す。
(ステップS501)
ステップS501において、位置姿勢導出部205が、初期化を行う。ここでは、ステップS302で補正された概略位置姿勢を計測対象物体101の位置姿勢として設定する。
(ステップS502)
ステップS502において、位置姿勢導出部205が、エッジの対応付けを行う。まず、設定された計測対象物体101の概略位置姿勢に基づいて、3次元形状モデルの各エッジを画像面に投影する。その後エッジの対応付けを行う。
図6はエッジの対応付け方法を示す図である。図6(a)は輝度画像上に形状モデルのエッジを投影した図である。まず画像上(画像中)で等間隔になるように、投影されたエッジ601上に制御点602を設定し、制御点ごとに、投影されたエッジ601の法線方向に探索ライン603をとる。制御点を原点とした探索ラインの所定の範囲内で1次元のエッジの検出を行い、検出されたエッジの中で制御点に最も近い点を対応点として保持する。図6(b)は原点が制御点で、横軸に探索ライン、縦軸に輝度勾配の絶対値をとるグラフである。先の画像上にエッジは画素値の輝度勾配の絶対値の極値として検出される。ここでは輝度勾配の絶対値の極値が所定の閾値605よりも大きく、且つ最も制御点に近い点604を対応点とする。
(ステップS503)
ステップS503において、線形連立方程式を解くための係数行列と誤差ベクトルの算出を行う。ここで係数行列の各要素は、位置姿勢の推定値の微小変化に対する一次の偏微分係数であり、具体的には画像座標の偏微分係数である。誤差ベクトルは、投影されたエッジと検出されたエッジの画像上での距離である。
図7は、エッジの投影像と検出されたエッジの関係を説明する図である。図7では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点(投影された各エッジを画像上で等間隔に分割する点)の画像上での位置を(u、v)、該制御点が所属するエッジの画像上での傾きをu軸に対する傾きθと表す。傾きθは、エッジの両端の3次元座標をsに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。該エッジの画像上での法線ベクトルは(sinθ、−cosθ)となる。また、該制御点の対応点の画像座標を(u’、v’)とする。ここで、点(u’、v’)を通り、傾きがθである直線上の点(u、v)は、
Figure 2015090560
と表せる(θは定数)。ここで、
Figure 2015090560
(定数)とした。制御点の画像上での位置は計測対象物体101の位置姿勢により変化する。また、計測対象物体101の位置姿勢の自由度は6自由度である。すなわちsは6次元ベクトルであり、計測対象物体101の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が回転軸を表して大きさが回転角を表す3次元ベクトルなどによって表現される。位置姿勢により変化する制御点の画像座標(u、v)は(u、v)の近傍で1次のテイラー展開によって(式8)のように近似できる。但しΔs(i=1、2、・・・、6)はsの各成分の微小変化を表す。
Figure 2015090560
正しいsによって得られる制御点の画像上での位置は数6が表す直線上にあると仮定できる。(式8)によって近似されるu、vを(式7)に代入することにより、(式9)が得られる。
Figure 2015090560
ただし、
Figure 2015090560

(定数)とした。
画像処理装置104の座標系における3次元座標は、計測対象物体101の位置姿勢sによってモデル座標系における3次元座標(x、y、z)に変換することができる。位置姿勢の推定値により、ある点がモデル座標系の点(x、y、z)に変換されるとする。(x、y、z)は計測対象物体101の位置姿勢により変化するものであり、(x、y、z)の近傍で1次のテイラー展開によって数9のように近似できる。
Figure 2015090560
(式9)はステップS502において対応付けが行われたすべてのエッジについて成り立つため、(式11)のようなΔsに関する線形連立方程式が成り立つ。
Figure 2015090560
ここで(式11)を(式12)のように表す。
Figure 2015090560
(式12)の線形連立方程式の係数行列Jを算出するための偏微分係数の算出は、例えば、以下の文献に記載されている方法で行う。
V.Lepetit and P.Fua、 “Keypoint recognition using randomized trees、” IEEE Transactions on Pattern Analysis and Machine Intelligence、 vol.28、 no.9、 2006.
(ステップS504)
ステップS504において、位置姿勢導出部205が、(式12)をもとに、行列Jの一般化逆行列(J・J)−1・Jを用いてΔsを求める。
しかしながら、エッジには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジでは、誤差d−rが大きくなる。そのため(式11)、(式12)の連立方程式に対する寄与度が大きくなり、その結果得られるΔsの精度が低下してしまう。そこで、誤差d−rが大きいデータには小さな重みを与え、誤差d−rが小さいデータには大きな重みを与える。重みは例えば(式13)に示すようなTukeyの関数により与える。
Figure 2015090560
、cは定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える関数であればなんでもよい。
各データ(エッジ)に対応する重みをwとする。ここで(式14)のように重み行列Wを定義する。
Figure 2015090560
重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には重みwが入る。この重み行列Wを用いて、(式11)を(式14)のように変形する。
Figure 2015090560
(式16)のように(式15)を解くことにより補正値Δsを求める。
Figure 2015090560
(ステップS505)
ステップS505では、位置姿勢導出部205が、ステップS504において算出された位置姿勢の補正値Δsにより、位置姿勢をs+Δsに更新する。
(ステップS506)
ステップS506では、位置姿勢導出部205が、位置姿勢が収束したか否かの判定を行い、収束したと判定された場合はその時の位置姿勢をフィッティング結果として処理を終了する。収束していないと判定された場合は収束するまでS502〜S505を繰り返し行う。収束判定では、S505の補正量が所定の値以下でほぼ変化がないと判定された場合に収束したと判定する。なお、収束判定の方法はこの方法に限定されるものではなく反復回数が所定回数に達した場合には、収束したものと判定してもよい。
以上説明したように、ステップS501〜S506の処理により計測対象物体101の位置姿勢が算出される。
なお、上記では3次元の位置姿勢を算出すると説明したが、2次元の位置姿勢を算出してもよい。この場合、ベクトルsは、位置を表す2つの要素と姿勢を表す1つの要素からなる3次元ベクトルとなる。
また、本実施形態における計測対象物体101の位置姿勢の算出方法はGauss−Newton法に限るものではない。例えば、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
また、計測対象物体101の位置姿勢の算出方法は、様々な姿勢で撮像した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチング(パターンマッチング)を行うことによって、計測対象物体101の位置姿勢を推定してもよい。例えば、以下の文献の方法に記載の方法で行っても良い。即ち、予め複数の姿勢で撮影した対象物体の画像をリファレンス画像として保持しておく。そして、リファレンス画像と入力画像のそれぞれから抽出されるエッジ同士の対応間の距離の誤差の総和が最小となるリファレンス画像に基づいて、対象物体101の位置姿勢を推定してもよい。
Marcel German、“Automatic Pose Estimation For Range Images on the GPU”、3DMI、 2007
(変形例1−1)
第1の実施形態では、事前情報保持部202が保持する事前情報に基づいて概略位置姿勢を補正したが、計測情報入力部201を介して得られる計測情報に基づいて概略位置姿勢を補正してもよい。
具体的には、例えば、以下の文献に示すような方法で、輝度画像に基づいてプロジェクタの位置を推定してもよい。そして、第1の実施形態で述べた方法で、計測対象物体からプロジェクタまでの方向ベクトルを画像面に投影した方向ベクトルを求め、これを補正方向とする。なお、光源はプロジェクタに限らず、他の光源であってもよい。例えば、蛍光灯照明装置であってもよい。
山下 幸宏、坂上 文彦、佐藤 淳、“非平面に投影された影に基づく形状と光源の同時推定”、画像の認識・理解シンポジウム、2011。
また、補正量は、輝度画像中の輝度値が連続して低い部分を影領域として抽出し、抽出した影領域における補正方向での幅とする。図8(a)は、計測対象物体101を撮影した輝度画像の模式図である。
領域802は、輝度画像801における計測対象物体領域、803は影領域である。探索ライン805を、補正方向804でかつ影領域の中心付近を通るように設定する。探索ライン805において各画素の輝度値を取得し、予め設定した閾値よりも小さくなる連続領域を検出する。図8(b)は、横軸に探索ライン805、縦軸に輝度値を示した図である。輝度値が予め設定した閾値806よりも小さくなる連続幅を検出し、これを補正量とする。
なお、補正方向や補正量は、影の方向や影の領域を求めることができれば他の方法で求めてもよい。例えば、計測対象物体の輝度画像と同時に距離画像を取得し、距離画像の距離値が取得できなかった領域を影の領域としてもよい。また、影の領域の輪郭を抽出し、光源に最も近い距離値をもつ輪郭上の点から最も遠い距離値をもつ輪郭上の点までの方向を影の方向としても良い。
また、補正方向または補正量を画像処理装置104に備えられたユーザインターフェースを介してユーザが手動で値を指定してもよい。例えば、取得した輝度画像を画像処理装置104に備えられたモニタ上に表示し、ユーザが影の領域や落ちる方向を目視で確認し、マウスやキーボードなどを使用して補正方向または補正量を指定する。
(第2の実施形態)
第2の実施形態では、計測対象物体905上で鏡面反射が観測されることが原因で計測対象物体905の位置姿勢計測の安定性が低下するのを防止するための方法について説明する。
第1の実施形態で述べたように、計測対象物体を撮影した輝度画像上から検出したエッジ(計測エッジ)に計測対象物体の輪郭や凹凸部以外のエッジが含まれていた場合、エッジ同士の対応付けに誤りが発生し、位置姿勢計測精度が低下する危険性がある。計測対象物体上での鏡面反射領域の輝度値は周辺領域の輝度値に比べ非常に高く、鏡面反射領域の境界でエッジが検出される。第1の実施形態では、計測エッジに影のエッジが含まれている場合について説明したが、本実施形態では、鏡面反射領域の境界のエッジが計測エッジに含まれている場合について説明する。
第2の実施形態は、第1の実施形態と基本的な構成がほぼ共通であるが、第1の実施形態で説明した一連の処理のうち、事前情報保持部202が保持する事前情報及び補正方法(ステップS302)が異なる。以下では、本実施形態における事前情報保持部202が保持する事前情報及び補正方法についてのみ説明する。
図9は、計測対象物体905上で鏡面反射が発生した状況を示した模式図である。撮像装置102の観測方向ベクトル901と計測対象物体101の接点が、物体の輪郭エッジである。図9では輪郭エッジのみを図示したが、凹凸形状のある物体の場合には、凹凸部でもエッジが生じる。
以下では、輪郭エッジと凹凸部に生じるエッジをまとめて構造的エッジと呼ぶこととする。鏡面反射が発生することで、計測対象物体を撮影した輝度画像上から、鏡面反射領域の境界のエッジ902が検出される。このため、概略位置姿勢によっては、対応付けにおいて、モデルエッジが構造的エッジ903ではなく、鏡面反射領域の境界のエッジ902と誤って対応付く危険性がある。
そこで、モデルエッジが鏡面反射領域の境界のエッジ902と誤って対応付けされることを抑制するために、概略位置姿勢を補正する方法について説明する。
具体的には、上記のように予め求めておいた概略位置姿勢を、鏡面反射領域の情報と、構造的エッジと構造的エッジから最も近傍にある鏡面反射領域の境界のエッジとの位置関係の情報に基づいて補正する。
鏡面反射領域1004の情報は、鏡面反射領域の重心位置とする。また、構造的エッジと鏡面反射領域の境界のエッジとの位置関係の情報は、鏡面反射領域の重心と、重心から構造的エッジの法線ベクトル方向に伸ばした線分と構造的エッジの交点、との相対位置とする。
事前情報保持部202は、事前情報としてプロジェクタ103と計測対象物体905との位置関係、撮像装置102と計測対象物体905との位置関係、計測対象物体905の形状モデル及び表面特性(反射特性)を保持する。
これらの事前情報に基づいて、鏡面反射領域の情報(反射領域情報)及び構造的エッジと鏡面反射領域の境界のエッジとの位置関係の情報を求める方法について、図10に示したフローチャートを用いて説明する。本実施形態では、図10の処理を概略位置姿勢補正部204が行うものとして説明するが、本処理は、その他、事前情報保持部202などによって行われてもよい。
(ステップS1001)
ステップS1001では、概略位置姿勢補正部204が、鏡面反射なしの属性を設定した計測対象物体905の形状モデルのCG画像をカメラの位置姿勢に基づいて、所定の光源環境で描画し(レンダリング)、輝度画像を生成する。
(ステップS1002)
ステップS1002では、概略位置姿勢補正部204が、ステップS1001で生成した輝度画像から、輝度値の勾配が予め設定した閾値以上となる部分をエッジとして検出する。
ここでは、計測対象物体905の構造的エッジが検出される。
(ステップS1003)
ステップS1003では、概略位置姿勢補正部204が、計測対象物体905の形状モデルに鏡面反射の属性(反射特性)を設定し、撮像装置102の位置姿勢に基づいて所定の光源環境で描画し(レンダリング)、輝度画像を生成する。鏡面反射の属性は、計測対象物体905の材質や表面形状による反射率の変化に基づいて決定する。
(ステップS1004)
ステップS1004では、概略位置姿勢補正部204が、ステップS1003で生成した輝度画像から、輝度値が飽和している領域を鏡面反射領域として抽出する。そして、抽出した鏡面反射領域から領域の重心または輪郭を抽出する。輪郭の抽出は、画像処理の一般的な手法として知られる輪郭追跡を用いて行う。これらを鏡面反射領域の情報とする。
(ステップS1105)
ステップS1105では、概略位置姿勢補正部204が、ステップS1002で検出した構造的エッジから最も近傍(周囲)にある鏡面反射領域を決定する。例えば、構造的エッジと鏡面反射領域の重心までの距離が最小となる鏡面反射領域を最も近傍にあるものとして決定する。そして、鏡面反射領域の重心と、鏡面反射領域の重心から構造的エッジの法線ベクトル方向に伸ばした線分と構造的エッジの交点、との相対位置を求める。これを構造的エッジと鏡面反射領域の境界のエッジとの位置関係の情報とする。
そして、事前情報保持部202に記憶させる。
なお、ステップS1001及びステップS1003では、対象物体101の輝度画像を、概略位置姿勢補正部204が形状モデルを描画(レンダリング)することで生成したが、これに限らず別の方法であっても良い。例えば、ステップS1001の処理に代わって、鏡面反射が発生しない位置に光源を配置して対象物体を撮像した画像を事前情報保持部202が保持するようにしてもよい。また、ステップS1003の処理に代わって、所定の光源条件で対象物体を撮像した画像を事前情報保持部202が保持するようにしてもよい。
次に、事前情報保持部202が保持する事前情報に基づいて、概略位置姿勢補正部204が、概略位置姿勢を補正する方法について説明する。具体的には、事前情報を用いて、鏡面反射領域の重心Aから、重心から構造的エッジの法線ベクトル方向に伸ばした線分と構造的エッジの交点BまでのベクトルABを求める。このベクトルの方向を補正方向、ベクトルの大きさを補正量とし、概概略位置姿勢(位置X、姿勢R)の位置Xにこれを加算する。これより、補正後の概略位置姿勢は、位置(X+AB)、姿勢Rとなる。
なお、鏡面反射領域の情報は、鏡面反射領域の重心に限らず、鏡面反射の領域の位置が示せれば何でも良い。例えば、鏡面反射領域の輪郭としても良い。また、構造的エッジと鏡面反射領域の境界のエッジとの位置関係の情報は、鏡面反射領域の重心と、鏡面反射領域の重心から構造的エッジの法線ベクトル方向に伸ばした線分と構造的エッジの交点との相対関係に限らない。構造的エッジと鏡面反射領域の境界のエッジとの位置関係を示すものであれば何でも良い。例えば、構造的エッジからの距離が最小となる鏡面反射領域の輪郭上の点と、構造的エッジからの距離が最小となる鏡面反射領域の輪郭上の点から構造的エッジの法線ベクトル方向に伸ばした線分と構造的エッジの交点との相対位置であってもよい。
以上のように算出した補正量及び補正方向を用いて、ステップS302以降の処理を第1の実施形態と同様に実行する。
(変形例2−1)
第2の実施形態では、事前情報保持部202が保持する事前情報に基づいて概略位置姿勢を補正したが、計測情報入力部201を介して得られる計測情報に基づいて、概略位置姿勢を補正してもよい。
具体的には、計測対象物体を撮影した輝度画像上から輝度値が飽和している領域を鏡面反射領域として抽出し、鏡面反射の重心または輪郭位置などの情報を鏡面反射領域の情報として算出する。また、輝度画像上から構造的エッジを抽出し、鏡面反射領域と鏡面反射領域近傍に存在する構造的エッジとの位置関係を算出する。そして、ここで求めた鏡面反射領域の情報及び鏡面反射領域と鏡面反射領域近傍に存在する構造的エッジとの位置関係を用いて、概略位置姿勢の補正量及び補正方向を決定する。
なお、光源はプロジェクタに限らず他の光源であってもよい。例えば、蛍光灯照明装置であってもよい。
また、補正方向または補正量を画像処理装置104に備えられたユーザインターフェースを介してユーザが手動で値を指定してもよい。例えば、取得した輝度画像を画像処理装置104に備えられたモニタ上に表示し、ユーザが影の領域や落ちる方向を目視で確認し、マウスやキーボードなどを使用して補正方向または補正量を指定する。
(第3の実施形態)
第3の実施形態では、計測対象物体1101の概略位置姿勢を、計測対象物体1101が配置される確率が高い姿勢に補正する方法について説明する。計測対象物体1101からエッジが密集して検出される場合など、対応付けの誤りが発生しやすい状況では、概略位置姿勢を実際の位置姿勢にできるだけ近いものに設定することで対応付けの誤りが抑制される。
第3の実施形態は、第1、2の実施形態と基本的な構成がほぼ共通であるが、第1及び第2の実施形態で説明した一連の処理のうち、事前情報保持部202が保持する事前情報及び補正方法(ステップS302)が異なる。以下では、本実施形態における事前情報保持部202が保持する事前情報及び補正方法についてのみ説明する。
事前情報として、計測対象物体1101の姿勢の存在確率(確率情報)を保持する。計測対象物体1101の姿勢の取り得る確率は、計測対象物体1101の姿勢の安定度とする。安定度は、例えば、物体を配置したときの倒れにくさから求める。本実施形態では、以下の方法で安定度を求める。
まず、物体の安定姿勢を決定する。安定姿勢は、物体の形状から抽出される面、エッジまたは点が、水平面と接する時の物体の姿勢とする。エッジのみの場合には2つ以上、点のみの場合には3点以上、エッジと点が両方接する場合には合計で2点以上接し、面が1つでも接する場合にはエッジや点が接する数はいくつでも構わない。
物体の凸形状から面を抽出し、この抽出した面と接する平面を求め、求めた平面が計測対象物体と交差しないどうか判定する。交差すると判定した場合は、求めた平面を設置面としたときの物体の姿勢は存在しないため、安定姿勢ではないと判断する。交差しないと判定した場合には、求めた平面を配置面としたときの物体の姿勢を求め、これを安定姿勢とする。
次に、物体の凸形状からエッジを抽出し、抽出したエッジから2つを任意に選択し、これらに接する平面を求め、求めた平面が物体と交差しないどうか判定する。交差すると判定した場合は、求めた平面を設置面としたときの物体の姿勢は存在しないため、安定姿勢ではないと判断する。交差しないと判定した場合には、求めた平面を配置面としたときの物体の姿勢を求め、これを安定姿勢とする。
次に、計測対象物体の凸形状から点を抽出し、抽出した点から3つを任意に選択し、これらに接する平面を求め、求めた平面が計測対象物体と交差しないどうか判定する。交差すると判定した場合は、求めた平面を設置面としたときの物体の姿勢は存在しないため、安定姿勢ではないと判断する。交差しないと判定した場合には、求めた平面を配置面としたときの物体の姿勢を求め、これを安定姿勢とする。
次に、計測対象物体の凸形状から抽出したエッジから1つ及び抽出した点から1つをそれぞれ任意に選択し、選択したエッジと点に接する平面を求め、求めた平面が計測対象物体と交差しないどうか判定する。交差すると判定した場合は、求めた平面を設置面としたときの物体の姿勢は存在しないため、安定姿勢ではないと判断する。交差しないと判定した場合には、求めた平面を設置面としたときの物体の姿勢を求め、これを安定姿勢とする。
求められた安定姿勢において、安定度(倒れにくさ)を求める。物体の設置点が物体の重心位置から遠いものほど設置点での反力が大きくなるため、倒れにくいと考えられる。また、重心位置が水平面に近いほど、物体の微小な姿勢変化によるトルクの変化が小さくなり、倒れにくいと考えられる。この両者を組み合わせた指標として、重心から設置点までのベクトルと重心から水平面に対して垂直な方向に下ろしたベクトルのなす角度のうち、最大となるものを安定度とする。なす角度が大きいほど安定度が高くなる。
図11は、計測対象物体1101を安定姿勢で配置したときの側面図の1例である。この図を用いて安定度の算出方法について説明する。まず、計測対象物体1101の重心からエッジまでのベクトルe1、e2、及び重心から水平面に垂直な方向に下ろしたベクトルe3を算出する。
そして、計測対象物体1101の重心からエッジまでのベクトルとe1及びe2と重心から水平面に垂直な方向に下ろしたベクトルe3のなす角θ及びθを算出する。θとθの大小を比較し、大きい方を安定度とする。この例では、θ>θとなるため、安定度はθとなる。なお、上述した方法では、水平面に垂直な軸周りで物体を回転させて配置した時の安定度は、一様となる。
姿勢の存在確率は上述した方法に限らず他の方法で求めてもよい。例えば、計測対象物体1101の位置姿勢計測を複数回繰り返し、各計測で得られた姿勢の頻度を存在確率として求めてもよい。
上述した方法で求めた姿勢の存在確率は、事前情報保持部202で保持する。
次に補正方法について説明する。ここでは、図13に示すような計測対象物体101を原点に配置した球を設定し、計測対象物体1101と撮像装置102の相対姿勢を球面上での撮像装置の位置ベクトルとして表現する。
まず、概略位置姿勢に最も近い安定姿勢を選択する。概略位置姿勢から最も近い安定姿勢は、概略位置姿勢におけるカメラの位置ベクトルpと、各安定姿勢におけるカメラの位置ベクトルqとの内積p・q最大となるときの姿勢とする。
次に、概略位置姿勢における計測対象物体カメラの位置ベクトルpの終点と、概略位置姿勢に最も近い安定姿勢におけるカメラの位置ベクトルqの終点とを結ぶ線分l=p+α・p・q(0≦α≦1)を算出する。
そして、線分l上の1点に撮像装置を設置し、このときの計測対象物体の姿勢を補正後の概略位置姿勢の姿勢とする。線分l上の1点は、最大確率姿勢の存在確率に基づいて決定する。例えば、最大確率姿勢の存在確率が70%のときは、α=0。7と設定した時の線分l上の点とする。なお、αを1と設定した場合には、補正後の概略位置姿勢の姿勢は最大確率姿勢と同じになる。
以上のようにして補正した概略位置姿勢を用いて、ステップS302以降の処理を第1の実施形態と同様に実行する。
(第4の実施形態)
本実施形態に係る画像処理装置の好適な適用事例としては、産業用ロボットアームで対象物体の把持、移動、解放といった動作を行うシステムにおいて対象物体の位置姿勢計測に利用することが挙げられる。以下、図12を用いて、本発明に係る画像処理装置の適用例を説明する。
図12は、本発明の第4の実施形態に係る画像処理装置を含む情報処理システムの概略
構成の一例を示す模式図である。1201はカメラ及びプロジェクタである。画像処理装置104とカメラ及びプロジェクタ1201は第1〜3実施形態で説明したシステムと同様のものであり、先に説明した処理手順が記述されたプログラムを格納し、対象物体1204の位置姿勢の計測が可能である。
ロボットコントローラ1202はロボットコントローラであり、ロボットアーム1203を制御する。ロボットアーム1203はロボットアームであり、回転軸及び/または並進移動軸からなる可動軸を有する。ロボットコントローラ1202は、画像処理装置104に接続されており、ロボットアーム1203への命令は画像処理装置104から受け取った計測対象物体1204の位置姿勢を具体的な制御命令に変換してロボットアーム1203を動かす。
本実施形態における画像処理装置104は上記に加えてさらに次の処理手順を包含する。まず第1〜第3の実施形態で説明したシステム座標系すなわちカメラ座標系とロボットアームで定義されるロボット座標系の相対関係を保持する。画像処理装置104は、計測対象物体1204の位置姿勢を計測し、その結果をカメラの座標系からロボット座標系に変換する。次に、変換された計測対象物体1204のロボット座標系における位置姿勢を元にロボットコントローラ1202を介して、ロボットアーム1203を対象物体の把持できる位置姿勢に移動する。また、計測対象物体1204にロボットアーム1203が把持する物体を組み付ける場合には、把持物体及び対象物体のロボット座標系における位置姿勢を元にロボットコントローラ1202を介して、ロボットアーム1203を組み付け可能な位置姿勢に移動する。
以上によって本実施形態におけるロボットシステムは、計測対象物体の位置姿勢が不定でも位置姿勢の計測を行うことで、計測対象物体の把持や組み付けなどが可能となる。
[第5の実施形態]
画像処理装置104を構成する各機能部は何れもハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)で構成しても良い。このような場合、このコンピュータプログラムをインストールすると該コンピュータプログラムを実行する装置は、画像処理装置104に適用可能である。画像処理装置104に適用可能な装置のハードウェア構成例について、図14のブロック図を用いて説明する。
CPU1401は、RAM1402やROM1403に格納されているコンピュータプログラムやデータを用いて処理を実行することで、本装置全体の動作制御を行うと共に、画像処理装置104が行うものとして上述した各処理を実行する。
RAM1402は、外部記憶装置1406からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1407を介して外部から受信したデータなどを一時的に記憶するためのエリアを有する。更にRAM1402は、CPU1401が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM1402は、各種のエリアを適宜提供することができる。ROM1403には、本装置の設定データやブートプログラムなどが格納されている。
操作部1404は、キーボードやマウスなどにより構成されており、本装置のユーザが操作することで、各種の指示をCPU1401に対して入力することができる。例えば、上記の調整領域の指定は、この操作部1404を操作することで指定することができる。
表示部1405は、CRTや液晶画面等により構成されており、CPU1401による処理結果を画像や文字などでもって表示することができる。
外部記憶装置1406は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。この外部記憶装置1406には、OS(オペレーティングシステム)や、図1、2に示した画像処理装置104内の各機能部が行うものとして上述した各処理をCPU1401に実行させるためのコンピュータプログラムやデータが保存されている。このデータには、上記の説明において既知の情報として説明した情報も含まれる。外部記憶装置1406に保存されているコンピュータプログラムやデータは、CPU1401による制御に従って適宜RAM1402にロードされ、CPU1401による処理対象となる。
I/F1407は、本装置が外部機器と通信を行うためのものであり、例えば、このI/F1407には、上記の撮像装置102、プロジェクタ103等を接続することができる。上記の各部は何れも、バス1408に接続されている。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<各実施形態の効果>
第1の実施形態では、概略位置姿勢を補正することで、計測対象物体の影のエッジが検出される場合にも、対応付けの誤りの発生を抑制することで位置姿勢計測の安定性を向上させ、ロバスト性の高い位置姿勢計測が可能となる。
第2の実施形態では、概略位置姿勢を補正することで、計測対象物体上に発生する鏡面反射領域の境界でエッジが検出される場合にも、対応付けの誤りの発生を抑制することで位置姿勢計測の安定性を向上させ、ロバスト性の高い位置姿勢計測が可能となる。
第3の実施形態では、計測対象物体の姿勢として存在する確率の高い姿勢に概略位置姿勢を補正することが可能となる。これにより、対応付けの誤りの発生を抑制することで位置姿勢計測の安定性を向上させ、ロバスト性の高い位置姿勢計測が可能となる。
第4の実施形態ではカメラとプロジェクトをアーム上に設置したロボットシステムにおいて、本発明よる対象物体の位置姿勢の計測結果に基づいてロボットアームを処理することで、位置姿勢が不定の対象物体の把持や組み付けなどの操作を可能にした。
<定義>
各実施形態における事前情報は、第1の実施形態で説明したように、光源とカメラとの位置関係情報及び計測対象物体の高さとしてもよい。また、第2の実施形態で説明したように、光源と対象物体との位置関係情報、カメラと計測対象物体との位置関係情報、計測対象物体の形状モデル及び表面特性としてもよい。また、第3の実施形態で説明したように、計測対象物体の姿勢の存在確率としてもよい。概略位置姿勢の補正方向及び補正量を算出可能であれば、いずれの情報であっても構わない。
各実施形態における計測情報は、計測対象物体を撮影した輝度画像としたが、事前情報を用いて補正量または補正方向を決定する場合には、モデルフィッティングに適応可能な情報であればどのようなものであってもよい。例えば、計測対象物体を撮影した距離画像としてもよい。また、計測情報を用いて補正量または補正方向を決定する場合には、モデルフィッティングに適応可能な情報と補正量または補正方向が算出可能な情報があればどのようなものであってもよい。例えば、レーザーレンジセンサなどで計測した三次元点群情報などでも構わない。
各実施形態における補正手段は、第1の実施形態から第3の実施形態で説明したように、事前情報のみ、または計測情報のみ、または事前情報と計測情報の両方に基づいて概略位置姿勢を補正してもよい。また、概略位置姿勢の補正方向または補正量のどちらか一方の値が事前に分かる場合には、どちらか一方については、既知の情報として与えてもよい。
本実施形態における補正手段は、第1の実施形態で説明したように、影の方向及び影の領域情報に基づいて補正方向及び補正量を算出してもよい。また、第2の実施形態で説明したように、鏡面反射の領域情報及び鏡面反射領域と鏡面反射領域近傍に存在する構造的エッジとの位置関係に基づいて補正方向及び補正量を算出してもよい。また、第3の実施形態で説明したように、存在確率の高い位置姿勢に基づいて補正後の概略位置姿勢を算出してもよい。
本実施形態における位置姿勢推定手段は、第1の実施形態では、計測対象物体の3次元の位置姿勢を推定するとして説明したが、2次元の位置姿勢推定であっても構わない。

Claims (19)

  1. 対象物体が含まれる画像を取得する画像取得手段と、
    前記対象物体のモデル情報を保持する保持手段と、
    前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、
    前記取得された画像中で前記対象物体の影領域に関する情報を推定する推定手段と、
    前記推定された影領域に関する情報に基づいて、前記概略位置姿勢を補正する補正手段と、
    前記補正手段によって補正された概略位置姿勢と前記モデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする画像処理装置。
  2. 前記保持手段は、更に前記対象物体に光を投影する投影手段と前記画像を撮像する撮像手段との位置関係を保持し、
    前記推定手段は、前記保持される位置関係と前記概略位置姿勢とに基づいて前記対象物体の位置に対する影の存在する方向を推定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記推定手段は、前記保持するモデル情報から前記対象物体の高さを取得し、該取得した高さと前記位置関係と前記概略位置姿勢とに基づいて前記計測対象物体の影の幅を推定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記画像取得手段は、前記計測対象物体を撮影した輝度画像と距離画像のうち、少なくともいずれか一方を取得し、
    前記推定手段は、前記輝度画像または距離画像に基づいて影領域に関する情報を推定することを特徴とする請求項1に記載の画像処理装置。
  5. 前記画像取得手段は、前記輝度画像を取得し、該取得した輝度画像中で輝度値が所定の値よりも小さい領域を影領域とすることを特徴とする請求項4に記載の画像処理装置。
  6. 前記影領域に関する情報は、前記影領域の大きさを含むことを特徴とする請求項1に記載の画像処理装置。
  7. 前記補正手段は、前記取得した影が存在する方向と反対の方向を補正方向とし、前記概略位置姿勢を該補正方向に補正することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 対象物体が含まれる画像を取得する画像取得手段と、
    前記対象物体のモデル情報を保持する保持手段と、
    前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、
    前記取得された画像中で前記対象物体の反射領域を推定する推定手段と、
    前記推定された反射領域に基づいて、前記概略位置姿勢を補正する補正手段と、
    前記補正手段によって補正された概略位置姿勢と前記モデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする画像処理装置。
  9. 前記推定手段は、前記モデル情報に前記対象物体の反射特性を設定し、該設定されたモデルを所定の光源環境でレンダリングすることによって、前記対象物体の反射領域を推定することを特徴とする請求項8に記載の画像処理装置。
  10. 前記保持手段は、前記対象物体の形状に起因するエッジの周囲で、前記反射領域を探索し、該探索された反射領域と前記エッジとの位置関係を保持し、
    前記補正手段は、前記反射領域と前記エッジとの位置関係に基づいて、前記概略位置姿勢を補正することを特徴とする請求項8または9に記載の画像処理装置
  11. 前記補正手段は、前記保持された反射領域と前記エッジとの位置関係から、前記エッジに対して前記反射領域が存在する方向と反対の方向を補正方向とし、前記概略位置姿勢を前記補正方向に補正することを特徴とする請求項8乃至10のいずれか1項に記載の画像処理装置。
  12. 前記画像取得手段は、前記対象物体を撮影した輝度画像または距離画像のうち、少なくともいずれか一方を取得し、
    前記推定手段は、前記輝度画像または距離画像に基づいて反射領域を推定することを特徴とする請求項8に記載の画像処理装置
  13. 対象物体が含まれる画像を取得する画像取得手段と、
    前記対象物体のモデル情報と前記対象物体の取り得る位置姿勢の確率情報と保持する保持手段と、
    前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、
    前記補正手段は、前記保持する確率情報に基づいて、前記概略位置姿勢を補正手段と、
    前記補正手段で補正された概略位置姿勢と前記保持手段で保持するモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする画像処理装置。
  14. 前記モデル情報は、前記対象物体の形状を表すモデルであることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 請求項1乃至14のいずれか1項に記載の画像処理装置と、
    前記位置姿勢推定手段によって位置姿勢が推定された対象物体を把持する把持手段とを備えることを特徴とするロボットシステム。
  16. 対象物体が含まれる画像を取得する画像取得工程と、
    前記画像に含まれる対象物体の概略位置姿勢を取得する取得工程と、
    前記取得された画像中で前記対象物体の影領域に関する情報を推定する推定工程と、
    前記推定された影領域に関する情報に基づいて、前記概略位置姿勢を補正する補正工程と、
    前記補正手段によって補正された概略位置姿勢と保持手段で保持する前記対象物体のモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出工程とを有することを特徴とする画像処理方法。
  17. 対象物体が含まれる画像を取得する画像取得工程と、
    前記画像に含まれる対象物体の概略位置姿勢を取得する取得工程と、
    前記取得された画像中で前記対象物体の反射領域を推定する推定工程と、
    前記推定された反射領域に基づいて、前記概略位置姿勢を補正する補正工程と、
    前記補正手段によって補正された概略位置姿勢と保持手段で保持される前記対象物体のモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出工程とを有することを特徴とする画像処理方法。
  18. 対象物体が含まれる画像を取得する画像取得工程と、
    前記画像に含まれる対象物体の概略位置姿勢を取得する取得工程と、
    保持手段で保持する前記対象物体の確率情報に基づいて、前記概略位置姿勢を補正する補正工程と、
    前記補正工程で補正された概略位置姿勢と前記保持手段で保持する前記対象物体のモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出工程とを備えることを特徴とする画像処理方法。
  19. コンピュータを、請求項1乃至14の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2013229808A 2013-11-05 2013-11-05 画像処理装置、画像処理方法 Active JP6271953B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013229808A JP6271953B2 (ja) 2013-11-05 2013-11-05 画像処理装置、画像処理方法
US14/531,879 US9495750B2 (en) 2013-11-05 2014-11-03 Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013229808A JP6271953B2 (ja) 2013-11-05 2013-11-05 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2015090560A true JP2015090560A (ja) 2015-05-11
JP2015090560A5 JP2015090560A5 (ja) 2016-12-22
JP6271953B2 JP6271953B2 (ja) 2018-01-31

Family

ID=53007081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229808A Active JP6271953B2 (ja) 2013-11-05 2013-11-05 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9495750B2 (ja)
JP (1) JP6271953B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197287A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2017110975A (ja) * 2015-12-15 2017-06-22 キヤノン株式会社 計測装置、システム、計測方法、決定方法及びプログラム
US10672142B2 (en) 2017-12-25 2020-06-02 Fujitsu Limited Object recognition apparatus, method for recognizing object, and non-transitory computer-readable storage medium for storing program
JP2021514092A (ja) * 2018-08-20 2021-06-03 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 位置姿勢検出方法及び装置、電子機器並びに記憶媒体

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129438B2 (en) * 2011-01-18 2015-09-08 NedSense Loft B.V. 3D modeling and rendering from 2D images
JP6126437B2 (ja) 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
US10335951B2 (en) * 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
JP6206560B2 (ja) * 2015-09-28 2017-10-04 株式会社リコー システム
US10899001B2 (en) * 2015-12-03 2021-01-26 Abb Schweiz Ag Method for teaching an industrial robot to pick parts
JP6605318B2 (ja) * 2015-12-14 2019-11-13 東レエンジニアリング株式会社 立体形状物の検査装置
US11726490B1 (en) 2016-02-19 2023-08-15 AI Incorporated System and method for guiding heading of a mobile robotic device
US10901431B1 (en) * 2017-01-19 2021-01-26 AI Incorporated System and method for guiding heading of a mobile robotic device
US10386847B1 (en) * 2016-02-19 2019-08-20 AI Incorporated System and method for guiding heading of a mobile robotic device
US11195294B2 (en) * 2016-04-22 2021-12-07 Nikon Corporation Image measurement method, image measurement program, image measurement device, and object manufacture method
JP7062923B2 (ja) * 2017-11-21 2022-05-09 富士通株式会社 可視化方法、可視化装置及び可視化プログラム
US10293489B1 (en) * 2017-12-15 2019-05-21 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and cleaning robot using the same
CN108481200A (zh) * 2018-01-31 2018-09-04 东莞市高臻机械设备有限公司 基于视觉定位技术的旋转吸头自动纠偏方法
CN112005624B (zh) * 2018-05-31 2022-04-26 雅马哈发动机株式会社 识别参数最优化装置、元件安装系统、识别参数最优化方法
JP7097799B2 (ja) * 2018-11-21 2022-07-08 Thk株式会社 画像情報処理装置、把持システム、および画像情報処理方法
JP7378934B2 (ja) * 2019-01-29 2023-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
JP7178954B2 (ja) * 2019-04-25 2022-11-28 東急建設株式会社 物体選別システム
JP6784361B1 (ja) * 2019-06-12 2020-11-11 株式会社アマダ ワーク検出装置及びワーク検出方法
CN113362392B (zh) * 2020-03-05 2024-04-23 杭州海康威视数字技术股份有限公司 可视域生成方法、装置、计算设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007245283A (ja) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7596242B2 (en) * 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
US6169553B1 (en) * 1997-07-02 2001-01-02 Ati Technologies, Inc. Method and apparatus for rendering a three-dimensional scene having shadowing
US6532022B1 (en) * 1997-10-15 2003-03-11 Electric Planet, Inc. Method and apparatus for model-based compositing
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
US6954544B2 (en) * 2002-05-23 2005-10-11 Xerox Corporation Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences
US20030137673A1 (en) * 2002-12-13 2003-07-24 Cox Cary B. Systems, and methods of use, employing distorted patterns to ascertain the shape of a surface, for road or runway profiling, or as input to control pro-active suspension systems
EP1667068A4 (en) * 2003-08-29 2011-09-28 Nec Corp SYSTEM FOR ESTIMATING / CORRELING OBJECT ATTITUDE BY USING WEIGHT INFORMATION
JP4349367B2 (ja) * 2003-10-30 2009-10-21 日本電気株式会社 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム
CA2455359C (en) * 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
US20050212794A1 (en) * 2004-03-29 2005-09-29 Communications Research Laboratory, Independent Administrative Institution Method and apparatus for removing of shadows and shadings from texture images
DE102004023322A1 (de) * 2004-05-07 2005-11-24 Daimlerchrysler Ag Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object
KR100647807B1 (ko) * 2005-11-24 2006-11-23 인하대학교 산학협력단 그림자 분석을 통한 3차원 건물정보 추출방법
CN101617271B (zh) * 2007-02-15 2015-07-15 高通股份有限公司 使用闪烁电磁辐射的增强输入
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
US7983487B2 (en) * 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
US8170279B2 (en) * 2008-06-23 2012-05-01 Raytheon Company Adaptive match metric selection for automatic target recognition
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
US8643717B2 (en) * 2009-03-04 2014-02-04 Hand Held Products, Inc. System and method for measuring irregular objects with a single camera
DE102009038364A1 (de) * 2009-08-23 2011-02-24 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
KR20110068469A (ko) * 2009-12-16 2011-06-22 인하대학교 산학협력단 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
WO2011101945A1 (ja) * 2010-02-19 2011-08-25 パナソニック株式会社 物体位置補正装置、物体位置補正方法、及び物体位置補正プログラム
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5548482B2 (ja) * 2010-02-26 2014-07-16 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
EP2385483B1 (en) * 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
JP5612916B2 (ja) * 2010-06-18 2014-10-22 キヤノン株式会社 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP4940461B2 (ja) 2010-07-27 2012-05-30 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP5615088B2 (ja) * 2010-08-18 2014-10-29 キヤノン株式会社 画像処理装置及びその方法、プログラム、並びに撮像装置
US9129438B2 (en) * 2011-01-18 2015-09-08 NedSense Loft B.V. 3D modeling and rendering from 2D images
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
US8638989B2 (en) * 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8867844B2 (en) * 2012-02-01 2014-10-21 Sharp Laboratories Of America, Inc. Edge based template matching
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP6576016B2 (ja) * 2012-07-04 2019-09-18 キヤノン株式会社 原稿読取装置
GB2505966A (en) * 2012-09-18 2014-03-19 Seebyte Ltd Target recognition in sonar imaging using test objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007245283A (ja) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤本 公三、外2名: ""視線ベクトル領域図による多面体対象物体の代表的投影形状の自動抽出"", 電子情報通信学会論文誌, vol. 75, no. 2, JPN6017035721, 25 February 1992 (1992-02-25), JP, pages 351 - 360, ISSN: 0003696183 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197287A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2017110975A (ja) * 2015-12-15 2017-06-22 キヤノン株式会社 計測装置、システム、計測方法、決定方法及びプログラム
US10672142B2 (en) 2017-12-25 2020-06-02 Fujitsu Limited Object recognition apparatus, method for recognizing object, and non-transitory computer-readable storage medium for storing program
JP2021514092A (ja) * 2018-08-20 2021-06-03 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 位置姿勢検出方法及び装置、電子機器並びに記憶媒体
US11107239B2 (en) 2018-08-20 2021-08-31 Beijing Sensetime Technology Development Co., Ltd. Pose detection method and device, electronic device and storage medium

Also Published As

Publication number Publication date
US20150125035A1 (en) 2015-05-07
JP6271953B2 (ja) 2018-01-31
US9495750B2 (en) 2016-11-15

Similar Documents

Publication Publication Date Title
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP2016197287A (ja) 情報処理装置、情報処理方法、プログラム
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6548789B2 (ja) 位置姿勢計測装置及び方法
JP5938201B2 (ja) 位置姿勢計測装置、その処理方法及びプログラム
JP2023011319A (ja) 調整支援システムおよび調整支援方法
JP2011174878A (ja) 位置姿勢計測装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171228

R151 Written notification of patent or utility model registration

Ref document number: 6271953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151