JP2012185752A - ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 - Google Patents
ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 Download PDFInfo
- Publication number
- JP2012185752A JP2012185752A JP2011049676A JP2011049676A JP2012185752A JP 2012185752 A JP2012185752 A JP 2012185752A JP 2011049676 A JP2011049676 A JP 2011049676A JP 2011049676 A JP2011049676 A JP 2011049676A JP 2012185752 A JP2012185752 A JP 2012185752A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- template
- image data
- target object
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】対象物体を撮像して画像データを生成する撮像装置11と、撮像装置11を可動に支持するロボット本体12と、リファレンスに対する撮像装置11からの視線方向ごとに、視線方向に対する面のテンプレート画像データとロボット座標系における面の位置および姿勢を表す情報とロボット座標系における撮像装置11の位置および姿勢を表す情報とを有するテンプレート情報を記憶するテンプレート情報記憶部と、撮像装置11が生成した画像データに含まれる対象物体の画像から可視である面を検出し、テンプレート情報記憶部から、可視である面に対応するテンプレート情報を読み込み、テンプレート情報に基づいてロボット座標系における対象物体の位置および姿勢を表す位置姿勢データを生成する位置姿勢データ生成部とを備えた。
【選択図】図2
Description
この認識装置は、対象物と複数のテンプレート情報それぞれとの類似度に基づいてあらかじめ基準座標系を設定する。そして、この認識装置は、基準座標系の各位置における、類似度が高いほど高い値となる重み係数と類似度とから重み付き類似度を求め、この重み付き類似度を用いて対象物を認識するものである。
ここで、ロボット本体は、例えば多関節ロボットである。また、リファレンスは、例えば、対象物体の良品サンプルである。また、視線方向とは、例えば互いに直交する方向であり、互いに直交する6方向でもよいし、これら6方向のうちリファレンスを通常使用の状態で水平面に載置した場合の鉛直下方を除く5方向でもよい。また、位置および姿勢を表す情報は、並進ベクトルおよび回転行列により表現される。
このように構成したことにより、本発明の一態様によれば、対象物体の画像から得られる可視面に対応するテンプレート情報に基づいて対象物体の位置および姿勢を計算するため、平面画像により表現された対象物体の立体空間における位置および姿勢を高精度に検出することができる。
[2]上記[1]記載のロボット装置において、前記位置姿勢データ生成部は、複数のテンプレート画像データそれぞれについて、該テンプレート画像データを、ホモグラフィー行列を用いて射影変換した変換画像データと前記画像データとの一致度を計算し、前記一致度に基づいて前記対象物体の画像から可視である面を検出する一致度評価部と、前記一致度評価部が検出した前記可視である面に対応するテンプレート画像データを、ホモグラフィー行列を用いて射影変換した変換画像データと前記画像データとの類似度を計算し、最も高い類似度となる計算結果に対応するホモグラフィー行列と前記テンプレート情報とに基づいて前記位置姿勢データを生成する位置姿勢計算部と、を備えることを特徴とする。
ここで、一致度は、例えば、画像データと変換画像データとの輝度差の絶対値の総和や輝度差の2乗和である。また、類似度は、例えば、正規化相互相関である。
このように構成したことにより、本発明の一態様によれば、可視面の中で信頼性が最も高い面に基づいて対象物体の位置および姿勢を高精度に得るため、平面画像により表現された対象物体の立体空間における位置および姿勢を高精度に検出することができる。また、本発明の一態様によれば、可視面のうち代表する一面のみを使用して位置および姿勢を求めるため、計算にかかる負荷は軽い。
[3]上記[1]記載のロボット装置において、前記位置姿勢データ生成部は、テンプレート画像データごとに、前記テンプレート画像データから抽出される複数の特徴点それぞれにおける特徴量と該特徴点の位置情報とを対応付けたテンプレート特徴データを記憶するテンプレート特徴データ記憶部と、前記撮像部が生成した前記画像データから複数の特徴点を抽出し、前記特徴点ごとの特徴量と前記特徴点の位置情報とを対応付けた特徴データを生成する特徴データ生成部と、前記特徴データ生成部が生成した前記特徴データと前記テンプレート特徴データ記憶部に記憶された前記テンプレート特徴データとに基づいて、前記特徴データにおける特徴量と前記テンプレート特徴データにおける特徴量との相関度を計算して、マッチする特徴量に対応する特徴点の位置情報を検出し、前記位置情報に基づき、前記対象物体の画像において可視である面と前記可視である面のうち該面に対応するテンプレート画像データとの類似度が最も高い面である基準面とを検出する第1位置姿勢計算部と、前記第1位置姿勢計算部が検出した前記特徴点の位置情報と前記基準面と前記テンプレート情報記憶部に記憶された前記テンプレート情報とに基づいて合成モデル画像データを生成する合成モデル画像生成部と、前記合成モデル画像生成部が生成した前記合成モデル画像データを、ホモグラフィー行列を用いて射影変換した変換合成モデル画像データと前記画像データとの類似度を計算し、前記類似度が閾値を超えることとなるホモグラフィー行列と前記テンプレート情報とに基づいて前記位置姿勢データを生成する第2位置姿勢計算部と、を備えることを特徴とする。
このように構成したことにより、本発明の一態様によれば、現視点からの全ての可視面を用いて対象物体の位置および姿勢を得るため、平面画像により表現された対象物体の立体空間における位置および姿勢を高精度に検出することができる。
[4]上記[1]記載のロボット装置において、上記[2]記載の位置姿勢データ生成部と上記[3]記載の位置姿勢データ生成部とを備え、前記請求項3記載の位置姿勢データ生成部における前記第1位置姿勢計算部において、前記基準面に対応する類似度が閾値以下である場合に、前記請求項3記載の位置姿勢データ生成部を機能させることを特徴とする。
このように構成することによって、本発明の一態様によれば、基準面の歪みや変形の度合いが比較的低い場合は、一面に基づく処理を行わせ、一方、基準面の歪みや変形の度合いが比較的高い場合は、可視面全てに基づく処理を行わせることができる。つまり、可視面の状態(例えば、歪みや変形)に応じて、一面に基づく対象物体の位置および姿勢の検出処理と、可視面全てに基づく検出処理とを切り替えることができ、視点による検出精度のばらつきを抑えることができる。
このように構成したことにより、本発明の一態様によれば、対象物体の画像から得られる可視面に対応するテンプレート情報に基づいて対象物体の位置および姿勢を計算するため、平面画像により表現された対象物体の立体空間における位置および姿勢を高精度に検出することができる。
[第1の実施の形態]
図1は、本発明の第1実施形態であるロボット装置を適用した検査システムにおけるロボットと対象物体との概略の外観図である。図1に示すように、ロボット10は、ロボット本体12に撮像装置(撮像部)11が設けられて構成される。
本実施形態における検査システムは、対象物体5の外観を観察して、検査部位の状態を検査する装置である。
ロボット10は、図1にも示したように、撮像装置11とロボット本体12とを備える。
ロボット本体12は、前述したように、取り付けられた撮像装置11を三次元空間内で移動させるための装置である。
検査装置30は、位置姿勢検出装置20から供給される位置姿勢データを取り込んで、対象物体5のロボット座標系の三次元空間における位置および姿勢を管理する。また、検査装置30は、撮像装置11から供給される動画像の画像データを順次または複数フレームおきに取り込み、公知のターゲットトラッキング処理にしたがってロボット本体12の姿勢を制御するためのロボット制御コマンドを生成し、このロボット制御コマンドをロボット制御装置40に供給する。
検査処理30は、画像データに含まれる対象物体画像について外観検査処理を実行する。外観検査処理は、例えば、公知技術であるテンプレートマッチング処理によって外観の異常等を検出する処理である。
なお、テンプレート情報記憶部203と、一致度評価部204と、対応テーブル記憶部205と、位置姿勢計算部206とは、位置姿勢データ生成部である。
画像データ記憶部202は、画像データ取得部201が取り込んだ画像データを記憶する。
図4は、一面分のテンプレート位置姿勢データを表す概念図である。図4は、互いに直交する6方向のうち1方向(上方側)から対象物体5のリファレンスを撮像する場合を示している。
図4において、Σは、基準座標系であるロボット座標系(XYZ座標系)を表す。P1は、第1のテンプレート画像に対応する第1の面を示す。ΣC1は、第1の面P1を撮像する場合の、撮像装置11のカメラ座標系(XC1YC1ZC1座標系)を表す。カメラ座標系ΣC1の原点O(オー)C1は、第1の面P1を撮像する撮像装置11の光軸に貫かれる点である。ΣObjは、リファレンスに対して設けたオブジェクト座標系(XObjYObjZObj座標系)を表す。例えば、ΣObjは、リファレンスの一つの角(頂点)に原点O(オー)Objを一致させて設けられる。ΣS1は、第1の面P1に原点O(オー)S1が含まれるように設けられた座標系(XS1YS1ZS1座標系)を表す。
一致度評価部204は、全てのテンプレート画像データについての一致度の評価結果と後述する各種関連情報とを格納した対応テーブルを生成して対応テーブル記憶部205に記憶させる。
したがって、ホモグラフィー行列を求めることにより、元画像に対して、注目画像がどれだけ並進し、またどれだけ回転しているかを求めること、言い換えると、注目領域のトラッキングを行うことができる。
図5は、対応テーブルのデータ構成を表す図である。図5に示すように、対応テーブルは、「テンプレート画像番号」と、「有効フラグ」と、「マッチング開始位置」と、「ホモグラフィー行列要素」との各項目を対応付けたデータテーブルである。「テンプレート画像番号」は、テンプレート情報記憶部203に記憶されたテンプレート画像データを識別する情報の項目である。「有効フラグ」は、一致度の評価結果の項目である。“ON”(“1”)は、変換画像データが有効であるとの評価結果であり、“OFF”(“0”)は、変換画像データが無効であるとの評価結果である。「マッチング開始位置」は、一致度評価部204が一致度を評価したときの、画像データ上の画像マッチングの開始位置の項目である。この開始位置は、具体的には座標値であり、例えば、マッチングさせる変換画像データの左上端の位置に対応する画像データの座標値である。「ホモグラフィー行列要素」は、一致度評価部204が一致度を評価したときの、ホモグラフィー行列の要素の項目である。
図6は、検査システム1の外観検査処理の手順を表すフローチャートである。図6のフローチャートの処理を開始する前に、検査システム1の検査装置30は、位置姿勢検出装置20から位置姿勢データを取得するために、撮像装置11に対して静止画撮影要求信号を送信する。
まず、ステップS1において、位置姿勢検出装置20は、対象物体の位置および姿勢の検出処理を実行し、ロボット座標系における対象物体5の位置および姿勢を表す位置姿勢データを生成し、この位置姿勢データを検査装置30に供給する。この対象物体の位置および姿勢の検出処理の詳細については後述する。
次に、検査装置30は、例えば、オペレーターによる操作によって撮像装置11の撮影の位置および姿勢の入力を受け付け、その位置および姿勢を指定する内容のロボット制御コマンドを生成し、このロボット制御コマンドをロボット制御部40に供給する。
次に、ロボット制御部40は、検査装置30から供給されたロボット制御コマンドを取り込み、このロボット制御コマンドにしたがってロボット本体12の動作を制御する。これによって、撮像装置11は、オペレーターが指定した位置および姿勢に設定される。
次に、検査装置30は、撮像装置11から供給される動画像の画像データを順次または複数フレームおきに取り込む。
次に、ステップS4において、検査装置30は、テンプレートマッチング処理を実行することによって画像データから対象物体5を検出して外観検査を行う。
次に、検査装置30は、撮像装置11に対して動画撮影停止要求信号を送信する。そして、動画撮影停止要求信号を受信した撮像装置11は、撮像動作を停止する。
図7〜図9は、位置姿勢検出装置20が実行する対象物体の位置および姿勢の検出処理の手順を表すフローチャートである。
まず、図7のステップS101において、画像データ取得部201は、ロボット10の撮像装置11から供給される静止画像の画像データを取り込み、この画像データを画像データ記憶部202に記憶させる。
次に、ステップS102において、一致度評価部204は、画像データ記憶部202から画像データを読み込み、テンプレート情報記憶部203から一面のテンプレート画像データを読み込む。
次に、ステップS104において、一致度評価部204は、テンプレート画像データを射影変換して変換画像データを生成する。具体的には、一致度評価部204は、テンプレート画像データにホモグラフィー行列を掛け合わせる演算を行なって変換画像データを生成する。
次に、ステップS106において、一致度評価部204は、画像データと変換画像データとの画像マッチング処理を行って一致度を計算する。一致度評価部204は、例えば、画像データと変換画像データとの輝度差の絶対値の総和または輝度差の2乗和を計算し、この値を一致度とする。
次に、ステップS109の処理に移る。
次に、ステップS106の処理に戻る。
次に、ステップS104の処理に戻る。
次に、位置姿勢計算部206は、変換画像データが有効であるとの評価結果を示すテンプレート画像データ、すなわち、有効フラグが“ON”であるテンプレート画像データごとに、画像データと変換画像データとの類似度を計算する。ただし、変換画像データは、位置姿勢計算部206が当該テンプレート画像データにホモグラフィー行列を掛け合わせる演算を行うことによって得られる。位置姿勢計算部206は、画像データと変換画像データとの類似度を、例えば正規化相互相関を計算することにより得る。
次に、位置姿勢計算部206は、撮像装置11の現在の位置および姿勢の情報(並進ベクトルおよび回転行列)を、例えばロボット本体12またはロボット制御装置40から取得する。
また、本実施形態によれば、可視面のうち代表する一面のみを使用して位置および姿勢を求めるため、計算にかかる負荷は軽い。
本発明の第2実施形態は、上述した第1実施形態における位置姿勢検出装置20を別形態に変更したものである。
図11は、本発明の第2実施形態であるロボット装置を適用した検査システムの概略の機能構成を表すブロック図である。図11に示すように、検査システム1aは、第1実施形態における検査システム1の位置姿勢検出装置20を位置姿勢検出装置20aに変更した構成を有する。そこで、本実施形態では、第1実施形態と相違する構成である位置姿勢検出装置20aについて具体的に説明し、その他第1実施形態と共通する構成についての説明を省略する。
なお、特徴データ生成部213と、テンプレート特徴データ記憶部214と、第1位置姿勢計算部215と、テンプレート情報記憶部216と、合成モデル画像生成部217と、第2位置姿勢計算部218とは、位置姿勢データ生成部である。
画像データ記憶部212は、画像データ取得部211が取り込んだ画像データを記憶する。
まず、合成モデル画像生成部217は、第1位置姿勢計算部215から、全ての可視面に対応する特徴点の位置情報と基準面の位置および姿勢とを取り込み、テンプレート情報記憶部216からテンプレート情報を読み込む。そして、合成モデル画像生成部217は、取り込んだ特徴点の位置情報と基準面の位置および姿勢とテンプレート情報とに基づいて、現視点において可視となる合成モデル画像データを生成し、この合成モデル画像データを第2位置姿勢計算部218に供給する。
また、合成モデル画像生成部217は、第2位値姿勢計算部218から供給された類似度が前記の閾値を超える値である場合、微調整完了を示すステータス情報を第2位置姿勢計算部218に供給する。
図13および図14は、位置姿勢検出装置20aが実行する対象物体の位置および姿勢の検出処理の手順を表すフローチャートである。
まず、図13のステップS201において、画像データ取得部211は、ロボット10の撮像装置11から供給される静止画像の画像データを取り込み、この画像データを画像データ記憶部212に記憶させる。
次に、ステップS202において、特徴データ生成部213は、画像データ記憶部212から画像データを読み込んでこの画像データから複数の特徴点を抽出し、各特徴点における特徴量(例えばSIFT特徴量)と当該特徴点の位置情報(位置ベクトル)とを対応付けた特徴データを生成し、この特徴データを第1位置姿勢計算部215に供給する。
次に、第1位置姿勢計算部215は、特徴データにおける特徴量とテンプレート特徴データにおける特徴量とのマッチング処理を実行し、マッチする特徴量に対応する特徴点の位置情報を抽出する。このマッチング処理では、第1位置姿勢計算部215は相関度を計算する。例えば、第1位置姿勢計算部215は、特徴データにおける特徴量Aとテンプレート特徴データにおける特徴量Bとのユークリッド距離を計算し、このユークリッド距離が閾値以下となる特徴量Aを、マッチする特徴量として検出する。
次に、第1位置姿勢計算部215は、抽出した位置情報に基づいて対象物体5の各面の位置および姿勢を検出する。
次に、第1位置姿勢計算部215は、検出結果に基づいて現視点から全ての可視面を検出し、これら全ての可視面の中からテンプレート画像との類似度が最も高い面、つまり基準面の位置および姿勢を選択する。
次に、合成モデル画像生成部217は、特徴点の位置情報から得られるモデルにおいて可視である一面を選択し、この選択した一面に対応するテンプレート画像データとテンプレート位置姿勢データとをテンプレート情報記憶部216から読み込む。
次に、合成モデル画像生成部217は、テンプレート位置姿勢関係データに基づいて変換画像データを合成して合成モデル画像データを生成し、この合成モデル画像データを第2位置姿勢計算部218に供給する。
次に、第2位置姿勢計算部218は、ホモグラフィー行列の要素に初期値を設定する。ここでの初期値は、前述したステップS203の処理において第1位置姿勢計算部215がマッチング処理によって取得した基準面の位置および姿勢に基づき決定されるものである。
一方、類似度が閾値以下である場合(S212:NO)はステップS215の処理に移る。
このように構成することにより、前記の式(6)を計算するにあたり、並進ベクトルt(ボールド体)Cおよび回転行列R(ボールド体)Cを都度計算する必要がない。
5 対象物体
10 ロボット
11 撮像装置(撮像部)
12 ロボット本体
12a 支持台
12b アーム部
12c ハンド部
20,20a 位置姿勢検出装置
30 検査装置
40 ロボット制御装置
201 画像データ取得部
202 画像データ記憶部
203 テンプレート情報記憶部
204 一致度評価部
205 対応テーブル記憶部
206 位置姿勢計算部
211 画像データ取得部
212 画像データ記憶部
213 特徴データ生成部
214 テンプレート特徴データ記憶部
215 第1位置姿勢計算部
216 テンプレート情報記憶部
217 合成モデル画像生成部
218 第2位置姿勢計算部
Claims (7)
- 対象物体を撮像して画像データを生成する撮像部と、
前記撮像部を可動に支持するロボット本体と、
前記対象物体のリファレンスに対する前記撮像部からの視線方向ごとに、前記視線方向に対する面のテンプレート画像データとロボット座標系における前記面の位置および姿勢を表す情報と前記ロボット座標系における前記撮像部の位置および姿勢を表す情報とを有するテンプレート情報を記憶するテンプレート情報記憶部と、
前記撮像部が生成した前記画像データに含まれる前記対象物体の画像から可視である面を検出し、前記テンプレート情報記憶部から、前記可視である面に対応するテンプレート情報を読み込み、前記テンプレート情報に基づいて前記ロボット座標系における前記対象物体の位置および姿勢を表す位置姿勢データを生成する位置姿勢データ生成部と、
を備えることを特徴とするロボット装置。 - 前記位置姿勢データ生成部は、
複数のテンプレート画像データそれぞれについて、該テンプレート画像データを、ホモグラフィー行列を用いて射影変換した変換画像データと前記画像データとの一致度を計算し、前記一致度に基づいて前記対象物体の画像から可視である面を検出する一致度評価部と、
前記一致度評価部が検出した前記可視である面に対応するテンプレート画像データを、ホモグラフィー行列を用いて射影変換した変換画像データと前記画像データとの類似度を計算し、最も高い類似度となる計算結果に対応するホモグラフィー行列と前記テンプレート情報とに基づいて前記位置姿勢データを生成する位置姿勢計算部と、
を備えることを特徴とする請求項1記載のロボット装置。 - 前記位置姿勢データ生成部は、
テンプレート画像データごとに、前記テンプレート画像データから抽出される複数の特徴点それぞれにおける特徴量と該特徴点の位置情報とを対応付けたテンプレート特徴データを記憶するテンプレート特徴データ記憶部と、
前記撮像部が生成した前記画像データから複数の特徴点を抽出し、前記特徴点ごとの特徴量と前記特徴点の位置情報とを対応付けた特徴データを生成する特徴データ生成部と、
前記特徴データ生成部が生成した前記特徴データと前記テンプレート特徴データ記憶部に記憶された前記テンプレート特徴データとに基づいて、前記特徴データにおける特徴量と前記テンプレート特徴データにおける特徴量との相関度を計算して、マッチする特徴量に対応する特徴点の位置情報を検出し、前記位置情報に基づき、前記対象物体の画像において可視である面と前記可視である面のうち該面に対応するテンプレート画像データとの類似度が最も高い面である基準面とを検出する第1位置姿勢計算部と、
前記第1位置姿勢計算部が検出した前記特徴点の位置情報と前記基準面と前記テンプレート情報記憶部に記憶された前記テンプレート情報とに基づいて合成モデル画像データを生成する合成モデル画像生成部と、
前記合成モデル画像生成部が生成した前記合成モデル画像データを、ホモグラフィー行列を用いて射影変換した変換合成モデル画像データと前記画像データとの類似度を計算し、前記類似度が閾値を超えることとなるホモグラフィー行列と前記テンプレート情報とに基づいて前記位置姿勢データを生成する第2位置姿勢計算部と、
を備えることを特徴とする請求項1記載のロボット装置。 - 請求項2記載の位置姿勢データ生成部と請求項3記載の位置姿勢データ生成部とを備え、
前記請求項3記載の位置姿勢データ生成部における前記第1位置姿勢計算部において、前記基準面に対応する類似度が閾値以下である場合に、前記請求項3記載の位置姿勢データ生成部を機能させる
ことを特徴とする請求項1記載のロボット装置。 - 対象物体のリファレンスに対する視線方向ごとに、前記視線方向に対する面のテンプレート画像データと基準座標系における前記面の位置および姿勢を表す情報と前記基準座標系における視点の位置および姿勢を表す情報とを有するテンプレート情報を記憶するテンプレート情報記憶部と、
所定の視点に基づき得られる画像データに含まれる前記対象物体の画像から可視である面を検出し、前記テンプレート情報記憶部から、前記可視である面に対応するテンプレート情報を読み込み、前記テンプレート情報に基づいて前記基準座標系における前記対象物体の位置および姿勢を表す位置姿勢データを生成する位置姿勢データ生成部と、
を備えることを特徴とする位置姿勢検出装置。 - 対象物体のリファレンスに対する視線方向ごとに、前記視線方向に対する面のテンプレート画像データと基準座標系における前記面の位置および姿勢を表す情報と前記基準座標系における視点の位置および姿勢を表す情報とを有するテンプレート情報を記憶するテンプレート情報記憶部を備えるコンピューターを、
所定の視点に基づき得られる画像データに含まれる前記対象物体の画像から可視である面を検出し、前記テンプレート情報記憶部から、前記可視である面に対応するテンプレート情報を読み込み、前記テンプレート情報に基づいて前記基準座標系における前記対象物体の位置および姿勢を表す位置姿勢データを生成する位置姿勢データ生成部と、
として機能させるための位置姿勢検出プログラム。 - 位置姿勢データ生成部が、所定の視点に基づき得られる画像データに含まれる対象物体の画像から可視である面を検出し、対象物体のリファレンスに対する視線方向ごとに、前記視線方向に対する面のテンプレート画像データと基準座標系における前記面の位置および姿勢を表す情報と前記基準座標系における視点の位置および姿勢を表す情報とを有するテンプレート情報を記憶するテンプレート情報記憶部から、前記可視である面に対応するテンプレート情報を読み込み、前記テンプレート情報に基づいて前記基準座標系における前記対象物体の位置および姿勢を表す位置姿勢データを生成する位置姿勢検出ステップ、
を有することを特徴とする位置姿勢検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011049676A JP5699697B2 (ja) | 2011-03-07 | 2011-03-07 | ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011049676A JP5699697B2 (ja) | 2011-03-07 | 2011-03-07 | ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012185752A true JP2012185752A (ja) | 2012-09-27 |
JP5699697B2 JP5699697B2 (ja) | 2015-04-15 |
Family
ID=47015778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011049676A Expired - Fee Related JP5699697B2 (ja) | 2011-03-07 | 2011-03-07 | ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5699697B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014127092A (ja) * | 2012-12-27 | 2014-07-07 | Seiko Epson Corp | 画像処理装置、画像処理方法、ロボット及びプログラム |
JP2016500890A (ja) * | 2012-11-02 | 2016-01-14 | クアルコム,インコーポレイテッド | 並列化可能なアーキテクチャ内の画像を使用して、サーフェルの局所的なジオメトリまたは面法線を初期化し、解くための方法 |
US20160093053A1 (en) * | 2014-09-29 | 2016-03-31 | Fanuc Corporation | Detection method and detection apparatus for detecting three-dimensional position of object |
WO2019093299A1 (ja) * | 2017-11-09 | 2019-05-16 | 国立大学法人東京大学 | 位置情報取得装置およびそれを備えたロボット制御装置 |
WO2020144784A1 (ja) | 2019-01-09 | 2020-07-16 | 株式会社Fuji | 画像処理装置、作業ロボット、基板検査装置および検体検査装置 |
WO2020189154A1 (ja) * | 2019-03-19 | 2020-09-24 | 株式会社豊田自動織機 | 物品検出装置、物品検出方法、及び産業車両 |
JP2020201077A (ja) * | 2019-06-07 | 2020-12-17 | 株式会社ミツトヨ | アナログインジケータ読取装置、アナログインジケータ読取方法及びプログラム |
CN114549821A (zh) * | 2022-01-14 | 2022-05-27 | 三一建筑机器人(西安)研究院有限公司 | 视觉模板生成、目标检测方法和装置及机器人系统 |
US11822341B2 (en) | 2017-12-28 | 2023-11-21 | Sony Corporation | Control device, control method, and mobile object to estimate the mobile object's self-position |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004333422A (ja) * | 2003-05-12 | 2004-11-25 | Fanuc Ltd | 画像処理装置 |
JP2006003263A (ja) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
-
2011
- 2011-03-07 JP JP2011049676A patent/JP5699697B2/ja not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004333422A (ja) * | 2003-05-12 | 2004-11-25 | Fanuc Ltd | 画像処理装置 |
JP2006003263A (ja) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
Non-Patent Citations (1)
Title |
---|
伊藤 栄介 岡谷 貴之 出口 光一郎: "GPUを使った高速高精度な平面トラッキング", 情報処理学会研究報告 平成22年度 1 [CD−ROM], vol. Vol.2010-CVIM-172 No.30, JPN6014045793, 15 June 2008 (2008-06-15), JP, pages 1 - 5, ISSN: 0002929978 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016500890A (ja) * | 2012-11-02 | 2016-01-14 | クアルコム,インコーポレイテッド | 並列化可能なアーキテクチャ内の画像を使用して、サーフェルの局所的なジオメトリまたは面法線を初期化し、解くための方法 |
JP2014127092A (ja) * | 2012-12-27 | 2014-07-07 | Seiko Epson Corp | 画像処理装置、画像処理方法、ロボット及びプログラム |
US20160093053A1 (en) * | 2014-09-29 | 2016-03-31 | Fanuc Corporation | Detection method and detection apparatus for detecting three-dimensional position of object |
WO2019093299A1 (ja) * | 2017-11-09 | 2019-05-16 | 国立大学法人東京大学 | 位置情報取得装置およびそれを備えたロボット制御装置 |
US11822341B2 (en) | 2017-12-28 | 2023-11-21 | Sony Corporation | Control device, control method, and mobile object to estimate the mobile object's self-position |
WO2020144784A1 (ja) | 2019-01-09 | 2020-07-16 | 株式会社Fuji | 画像処理装置、作業ロボット、基板検査装置および検体検査装置 |
US11972589B2 (en) | 2019-01-09 | 2024-04-30 | Fuji Corporation | Image processing device, work robot, substrate inspection device, and specimen inspection device |
WO2020189154A1 (ja) * | 2019-03-19 | 2020-09-24 | 株式会社豊田自動織機 | 物品検出装置、物品検出方法、及び産業車両 |
JPWO2020189154A1 (ja) * | 2019-03-19 | 2020-09-24 | ||
JP7252581B2 (ja) | 2019-03-19 | 2023-04-05 | 株式会社豊田自動織機 | 物品検出装置、物品検出方法、及び産業車両 |
JP2020201077A (ja) * | 2019-06-07 | 2020-12-17 | 株式会社ミツトヨ | アナログインジケータ読取装置、アナログインジケータ読取方法及びプログラム |
CN114549821A (zh) * | 2022-01-14 | 2022-05-27 | 三一建筑机器人(西安)研究院有限公司 | 视觉模板生成、目标检测方法和装置及机器人系统 |
Also Published As
Publication number | Publication date |
---|---|
JP5699697B2 (ja) | 2015-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5699697B2 (ja) | ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 | |
JP6560480B2 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP5812599B2 (ja) | 情報処理方法及びその装置 | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5423406B2 (ja) | 情報処理装置、情報処理システム及び情報処理方法 | |
JP5538667B2 (ja) | 位置姿勢計測装置及びその制御方法 | |
US9235928B2 (en) | 3D body modeling, from a single or multiple 3D cameras, in the presence of motion | |
KR101581197B1 (ko) | 로봇 및 그 제어방법 | |
KR101410273B1 (ko) | 증강현실 응용을 위한 환경 모델링 방법 및 장치 | |
JP5251987B2 (ja) | 人判定装置、方法およびプログラム | |
CN110926330B (zh) | 图像处理装置和图像处理方法 | |
WO2012091144A4 (en) | Information processing apparatus and method | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
JP6054831B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2017187882A (ja) | 画像処理に用いられるコンピュータープログラム | |
JP2013146813A (ja) | ロボット装置および位置姿勢検出方法 | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
CN113971835A (zh) | 一种家电设备的控制方法、装置、存储介质及终端设备 | |
Darujati et al. | Facial motion capture with 3D active appearance models | |
CN115862074B (zh) | 人体指向确定、屏幕控制方法、装置及相关设备 | |
JP6806160B2 (ja) | 3次元運動評価装置、3次元運動評価方法、及びプログラム | |
JP6584139B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN113836991A (zh) | 动作识别系统、动作识别方法及存储介质 | |
JP6237117B2 (ja) | 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム | |
JP2007257489A (ja) | 画像処理装置および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5699697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |