JP6163942B2 - 情報処理装置、制御方法、及びプログラム - Google Patents
情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6163942B2 JP6163942B2 JP2013156386A JP2013156386A JP6163942B2 JP 6163942 B2 JP6163942 B2 JP 6163942B2 JP 2013156386 A JP2013156386 A JP 2013156386A JP 2013156386 A JP2013156386 A JP 2013156386A JP 6163942 B2 JP6163942 B2 JP 6163942B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- image
- virtual
- information
- virtual device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
現実装置内に設置されたロボットの部品やワークは3次元CADデータなどの3次元情報により記述できる。また、仮想装置内に設置されたロボットの部品やワークも3次元情報により記述できる。そのため、現実装置の3次元情報に基づいて仮想装置を同期制御することが可能である。
図1を参照しながら、第1実施形態について説明する。図1は、第1実施形態に係るシステムの一例を示した図である。
記憶部21の機能は、RAM(Random Access Memory)などの揮発性記憶装置、或いは、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性記憶装置により実現される。
記憶部21は、現実装置10の3次元情報を記憶する。例えば、記憶部21は、現実装置10に含まれる対象物OBJやロボットの形状や位置などを示す3次元CADデータを記憶する。つまり、現実装置10の設計情報が記憶部21に記憶されている。演算部22は、記憶部21が記憶している3次元情報に基づいて現実装置10を仮想空間内に再現した仮想装置23を生成する。
<2.第2実施形態>
次に、第2実施形態について説明する。
まず、図2を参照しながら、第2実施形態に係るシステムについて説明する。図2は、第2実施形態に係るシステムの一例を示した図である。
現実装置100は、カメラ101、設置台102、照明103、及びロボット104を有する。なお、カメラ101、設置台102、照明103、及びロボット104の動作は、制御装置200により制御される。
ワークWKの位置や姿勢を変化させると変化前の検査視野がワークWK表面のどの範囲であったかをオペレータが正確に認識することは難しい。そこで、第2実施形態に係るシステムは、検査視野をオペレータが容易に認識できるようにする仕組みを提供する。この仕組みを適用することで、ワークWKの一部範囲について検査漏れが生じてしまうことや、検査漏れを避けようとして検査視野の重複が過剰になり検査時間が増大してしまうことを抑制する効果が期待できる。
図3〜図5を参照しながら、第2実施形態に係るシステムに含まれる装置のハードウェアについて説明する。図3は、第2実施形態に係る現実装置の一例を示した図である。図4は、第2実施形態に係る現実装置の機構について説明するための図である。図5は、第2実施形態に係る制御装置の機能を実現可能なハードウェアの一例を示した図である。
図3及び図4を参照しながら、現実装置100のハードウェアについて説明する。
図3に示すように、現実装置100は、カメラ101、設置台102、照明103、X機構111、Y機構112、第1回転機構113、第2回転機構114、及び把持機構115を有する。X機構111、Y機構112、第1回転機構113、第2回転機構114、及び把持機構115は、設置機構の一例である。
次に、図5を参照しながら、制御装置200のハードウェアについて説明する。
制御装置200が有する機能は、例えば、図5に示す情報処理装置のハードウェア資源を用いて実現することが可能である。つまり、制御装置200が有する機能は、コンピュータプログラムを用いて図5に示すハードウェアを制御することにより実現される。
次に、図6を参照しながら、制御装置200の機能について説明する。図6は、第2実施形態に係る制御装置が有する機能について説明するための図である。
画像取得部203は、カメラ101が撮像した撮像画像を現実装置100から受信する。画像取得部203が受信した撮像画像は、記憶部205に格納される。光量調整部204は、情報管理部201から入力された情報に応じて照明103の光量を制御する。また、光量調整部204は、照明103の制御情報を情報管理部201に入力する。この制御情報には、照明103に設定する光量レベルの値を示す制御パラメータが含まれる。情報管理部201は、光量調整部204から入力された制御情報を情報処理装置300に送信する。
また、情報管理部201は、情報処理装置300が計算した検査視野に関する情報を受信する。情報管理部201が受信した検査視野に関する情報は、記憶部205に格納される。
[2−4.情報処理装置の機能]
次に、図7を参照しながら、情報処理装置300の機能について説明する。図7は、第2実施形態に係る情報処理装置が有する機能について説明するための図である。
制御パラメータBは、ロボットの内部パラメータである。例えば、制御パラメータBは、ロボットの各機構に関する位置や姿勢を決めるパラメータなどである。
[2−5.キャリブレーション方法の適用例について]
次に、第2実施形態に係るキャリブレーション方法の適用例について説明する。
まず、図8を参照しながら、第2実施形態に係るシステムの基本動作について説明する。図8は、第2実施形態に係るシステムが行う動作の一例を示した図である。
例えば、光学シミュレーションによりワーク上に映り込んだ照明の範囲が計算され、照明の範囲から検査条件を満たす範囲が検査範囲として抽出される(S3)。
ここで、図9を参照しながら、情報処理装置300が実行する検査範囲の抽出処理について説明する。図9は、第2実施形態に係る情報処理装置が実行する検査範囲の抽出処理について説明するための図である。
なお、検査範囲は撮像画像上の2次元範囲として抽出されるが、情報処理装置300により2次元範囲の点を3次元CADデータに基づいて3次元座標点に変換し、3次元CADデータの形式で表現された部品データとして保存しておいてもよい。
ここで、図10を参照しながら、現実装置100と仮想装置304との間で生じる誤差の誤差要因について説明する。図10は、第2実施形態に係る現実装置と仮想装置との間で生じる誤差の誤差要因について説明するための図である。
上記のような誤差を補正する処理がキャリブレーション処理である。ここで、図11及び図12を参照しながら、第2実施形態に係るキャリブレーション処理について説明する。図11は、第2実施形態に係る特徴点の指定方法及びキャリブレーションに利用されるパラメータの例について説明するための図である。図12は、第2実施形態に係る特徴点の自動抽出方法について説明するための図である。
次に、図13及び図14を参照しながら、第2実施形態に係るキャリブレーション処理の流れについて説明する。図13は、第2実施形態に係る情報処理装置が実行するキャリブレーション処理の流れを示したフロー図である。図14は、第2実施形態に係る情報処理装置が実行するキャリブレーション処理の中で実行されるパラメータ計算の処理フローを示したフロー図である。
まず、キャリブレーション処理の全体的な流れについて説明する。なお、ここで説明するキャリブレーション処理は、主に情報処理装置300により実行される。
(パラメータ計算の流れ:図14)
次に、S108の処理について、さらに説明する。ここで説明する処理は、主に特徴点位置設定部305、3次元座標計算部306、差分計算部307、及びパラメータ計算部308により実行される。
[2−7.変形例:撮像画像毎に複数の特徴点を指定する場合]
次に、図15及び図16を参照しながら、第2実施形態の一変形例について説明する。図15は、第2実施形態の一変形例に係る特徴点の指定方法及びキャリブレーションに利用されるパラメータの例について説明するための図である。図16は、第2実施形態の一変形例に係る情報処理装置が実行するキャリブレーション処理の中で実行されるパラメータ計算の処理フローを示したフロー図である。
これまで、1枚の撮像画像について1つの特徴点を指定する場合を例に説明を進めてきた。しかし、1枚の撮像画像について複数の特徴点を指定することも可能である。例えば、図15に示すように、仮想装置304の撮像画像から3つの第1特徴点p11、p12、p13を指定することが可能である。この場合、現実装置100の撮像画像から3つの第1特徴点p11、p12、p13にそれぞれ対応する3つの第2特徴点p21、p22、p23が指定される。
この変形例に係るパラメータ計算の処理フローについて説明する。この処理は、上述したS108の処理に対応する。また、ここで説明する処理は、主に特徴点位置設定部305、3次元座標計算部306、差分計算部307、及びパラメータ計算部308により実行される。
(S129)パラメータ計算部308は、誤差dA,dB,dCの計算に対する寄与率を特徴点毎に計算する。この寄与率は決定係数と呼ばれることもある。例えば、残差の平方和を偏差の全平方和で割った値を1から引いたものが寄与率と呼ばれる。パラメータ計算部308は、設定した閾値よりも寄与率が低い第1特徴点及び第2特徴点の組を抽出し、抽出した第1特徴点及び第2特徴点の情報を記憶部302に格納する。S129の処理が完了すると、図16に示した一連の処理は終了する。
なお、上記説明において、検査に利用するソースの種類を光(照明)とし、光学シミュレーションを実行する場合を例に述べたが、検査に利用するソースの種類が変わっても第2実施形態に係る技術を同様に適用可能である。
以上説明した実施形態に関し、さらに以下の付記を開示する。
(付記1) 対象物と、前記対象物が設置されるロボットと、前記対象物及び前記ロボットの少なくとも一部を撮像するカメラとを含む現実装置の3次元情報を記憶する記憶部と、
前記3次元情報に基づいて前記現実装置を仮想空間内に再現した仮想装置を生成し、前記現実装置の動作に前記仮想装置の動作を同期させ、前記仮想装置のカメラで撮像される第1画像を生成し、前記現実装置で撮像された第2画像と、前記第2画像に対応する前記第1画像との差に基づいて前記仮想装置の制御パラメータを調整する演算部と、
を有する、情報処理装置。
前記演算部は、複数の前記第1画像及び前記第2画像の組について、前記第1画像内で設定された第1特徴点の2次元座標と、前記第1特徴点に対応する前記仮想空間内の3次元座標と、前記第1特徴点に対応する前記第2画像内にある第2特徴点の2次元座標と、前記第1画像の撮像時における前記仮想装置の制御パラメータとを取得し、前記モデル情報に基づいて前記現実装置の制御パラメータと前記仮想装置の制御パラメータとの間の誤差を計算する
付記1に記載の情報処理装置。
付記2に記載の情報処理装置。
付記2又は3に記載の情報処理装置。
付記4に記載の情報処理装置。
前記3次元情報に基づいて前記現実装置を仮想空間内に再現した仮想装置を生成し、前記現実装置の動作に前記仮想装置の動作を同期させ、前記仮想装置のカメラで撮像される第1画像を生成し、前記現実装置で撮像された第2画像と、前記第2画像に対応する前記第1画像との差に基づいて前記仮想装置の制御パラメータを調整する
制御方法。
前記コンピュータのプロセッサが、複数の前記第1画像及び前記第2画像の組について、前記第1画像内で設定された第1特徴点の2次元座標と、前記第1特徴点に対応する前記仮想空間内の3次元座標と、前記第1特徴点に対応する前記第2画像内にある第2特徴点の2次元座標と、前記第1画像の撮像時における前記仮想装置の制御パラメータとを取得し、前記モデル情報に基づいて前記現実装置の制御パラメータと前記仮想装置の制御パラメータとの間の誤差を計算する
付記6に記載の制御方法。
付記7に記載の制御方法。
付記7又は8に記載の制御方法。
付記9に記載の制御方法。
前記3次元情報に基づいて前記現実装置を仮想空間内に再現した仮想装置を生成し、前記現実装置の動作に前記仮想装置の動作を同期させ、前記仮想装置のカメラで撮像される第1画像を生成し、前記現実装置で撮像された第2画像と、前記第2画像に対応する前記第1画像との差に基づいて前記仮想装置の制御パラメータを調整する処理を実行させる
プログラム。
20 情報処理装置
21 記憶部
22 演算部
23 仮想装置
24 カメラ
25 ロボット
OBJ 対象物
A、B 制御パラメータ
dA、dB 誤差
P1 第1画像
P2 第2画像
Claims (7)
- 対象物と、前記対象物が設置されるロボットと、前記対象物及び前記ロボットの少なくとも一部を撮像するカメラとを含む現実装置の3次元情報を記憶する記憶部と、
前記3次元情報に基づいて前記現実装置を仮想空間内に再現した仮想装置を生成し、前記現実装置の動作に前記仮想装置の動作を同期させ、前記仮想装置のカメラで撮像される第1画像を生成し、前記現実装置で撮像された第2画像内に設定される第1特徴点と、前記第2画像内の前記第1特徴点に対応する前記第1画像内の第2特徴点とに基づいて前記現実装置の制御パラメータと前記仮想装置の制御パラメータとの間の誤差を計算し、前記誤差の計算に対する前記第1特徴点の寄与度を計算し、前記寄与度に基づいて前記第1特徴点として前記誤差の計算に利用する特徴点を選別する演算部と、
を有する、情報処理装置。 - 前記記憶部は、前記第1画像内の2次元座標と、前記2次元座標に対応する前記仮想空間内の3次元座標と、前記仮想装置の制御パラメータとの関係を示すモデル情報を記憶しており、
前記演算部は、複数の前記第1画像及び前記第2画像の組について、前記第1画像内で設定された第1特徴点の2次元座標と、前記第1特徴点に対応する前記仮想空間内の3次元座標と、前記第1特徴点に対応する前記第2画像内にある第2特徴点の2次元座標と、前記第1画像の撮像時における前記仮想装置の制御パラメータとを取得し、前記モデル情報に基づいて前記現実装置の制御パラメータと前記仮想装置の制御パラメータとの間の誤差を計算する、
請求項1に記載の情報処理装置。 - 前記演算部は、前記3次元情報を利用して前記対象物又は前記ロボットの角部を抽出し、抽出した前記角部に対応する前記第1画像内の2次元座標を前記第1特徴点の2次元座標に設定する、
請求項2に記載の情報処理装置。 - 前記第1特徴点の2次元座標は、1枚の前記第1画像について複数設定される、
請求項2又は3に記載の情報処理装置。 - 前記演算部は、前記誤差を計算する際に、前記第1特徴点の2次元座標のそれぞれについて計算結果への寄与度を計算し、設定した閾値よりも前記寄与度が小さい前記第1特徴点の情報を前記記憶部に記憶させ、後に前記誤差を計算する際には前記寄与度が小さい前記第1特徴点の2次元座標の利用を除外する、
請求項4に記載の情報処理装置。 - 対象物と、前記対象物が設置されるロボットと、前記対象物及び前記ロボットの少なくとも一部を撮像するカメラとを含む現実装置の3次元情報を記憶するメモリを有するコンピュータが、
前記3次元情報に基づいて前記現実装置を仮想空間内に再現した仮想装置を生成し、前記現実装置の動作に前記仮想装置の動作を同期させ、前記仮想装置のカメラで撮像される第1画像を生成し、前記現実装置で撮像された第2画像内に設定される第1特徴点と、前記第2画像内の前記第1特徴点に対応する前記第1画像内の第2特徴点とに基づいて前記現実装置の制御パラメータと前記仮想装置の制御パラメータとの間の誤差を計算し、前記誤差の計算に対する前記第1特徴点の寄与度を計算し、前記寄与度に基づいて前記第1特徴点として前記誤差の計算に利用する特徴点を選別する、
制御方法。 - 対象物と、前記対象物が設置されるロボットと、前記対象物及び前記ロボットの少なくとも一部を撮像するカメラとを含む現実装置の3次元情報を記憶するメモリを有するコンピュータに、
前記3次元情報に基づいて前記現実装置を仮想空間内に再現した仮想装置を生成し、前記現実装置の動作に前記仮想装置の動作を同期させ、前記仮想装置のカメラで撮像される第1画像を生成し、前記現実装置で撮像された第2画像内に設定される第1特徴点と、前記第2画像内の前記第1特徴点に対応する前記第1画像内の第2特徴点とに基づいて前記現実装置の制御パラメータと前記仮想装置の制御パラメータとの間の誤差を計算し、前記誤差の計算に対する前記第1特徴点の寄与度を計算し、前記寄与度に基づいて前記第1特徴点として前記誤差の計算に利用する特徴点を選別する処理を実行させる、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013156386A JP6163942B2 (ja) | 2013-07-29 | 2013-07-29 | 情報処理装置、制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013156386A JP6163942B2 (ja) | 2013-07-29 | 2013-07-29 | 情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015024480A JP2015024480A (ja) | 2015-02-05 |
JP6163942B2 true JP6163942B2 (ja) | 2017-07-19 |
Family
ID=52489573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013156386A Expired - Fee Related JP6163942B2 (ja) | 2013-07-29 | 2013-07-29 | 情報処理装置、制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6163942B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111015665A (zh) * | 2019-03-07 | 2020-04-17 | 牧今科技 | 执行自动相机校准以进行机器人控制的方法和系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3396632A4 (en) * | 2015-12-24 | 2019-01-09 | Fujitsu Limited | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM |
JP6822086B2 (ja) * | 2016-11-10 | 2021-01-27 | 富士通株式会社 | シミュレーション装置、シミュレーション方法およびシミュレーションプログラム |
JP7326911B2 (ja) | 2019-06-20 | 2023-08-16 | オムロン株式会社 | 制御システムおよび制御方法 |
JP7441047B2 (ja) | 2020-01-10 | 2024-02-29 | 三菱重工業株式会社 | 経路生成装置、制御装置、検査システム、経路生成方法およびプログラム |
JP7423387B2 (ja) * | 2020-03-31 | 2024-01-29 | ミネベアミツミ株式会社 | 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06134691A (ja) * | 1992-10-23 | 1994-05-17 | Hitachi Ltd | 位置検出方法およびこれを用いたフレキシブル生産システム |
JP3415427B2 (ja) * | 1998-02-25 | 2003-06-09 | 富士通株式会社 | ロボットシミュレーションにおけるキャリブレーション装置 |
JP2003150219A (ja) * | 2001-11-12 | 2003-05-23 | Fanuc Ltd | 作業機械のシミュレーション装置 |
JP2006110705A (ja) * | 2004-09-15 | 2006-04-27 | Yaskawa Electric Corp | ロボットのキャリブレーション方法 |
-
2013
- 2013-07-29 JP JP2013156386A patent/JP6163942B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111015665A (zh) * | 2019-03-07 | 2020-04-17 | 牧今科技 | 执行自动相机校准以进行机器人控制的方法和系统 |
CN111015665B (zh) * | 2019-03-07 | 2020-12-04 | 牧今科技 | 执行自动相机校准以进行机器人控制的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2015024480A (ja) | 2015-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6163942B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
US11704833B2 (en) | Monocular vision tracking method, apparatus and non-transitory computer-readable storage medium | |
WO2022120567A1 (zh) | 一种基于视觉引导的自动化标定系统 | |
CN108451536B (zh) | 自动地定位x射线系统的x射线源的方法和x射线系统 | |
US20170139407A1 (en) | Simulator, simulation method, and simulation program | |
JP2020095009A (ja) | コンピュータによる鉄筋測定検査システム | |
KR20200093464A (ko) | 로봇 모션 용 비전 시스템의 자동 핸드-아이 캘리브레이션을 위한 시스템 및 방법 | |
CN107367229B (zh) | 自由双目立体视觉转轴参数标定方法 | |
CN100442141C (zh) | 图像投影方法和设备 | |
JP2019115974A (ja) | ビジョンベース操作システムのキャリブレーション及びオペレーション | |
JP2015090560A (ja) | 画像処理装置、画像処理方法 | |
JP2011253376A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US7711507B2 (en) | Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium | |
JP2019215811A (ja) | 投影システム、画像処理装置および投影方法 | |
JP2016178448A (ja) | 投影システム、プロジェクター装置、撮像装置、および、プログラム | |
JP6115639B2 (ja) | 情報処理装置、検査範囲の計算方法、及びプログラム | |
Kahn | Reducing the gap between Augmented Reality and 3D modeling with real-time depth imaging | |
JP2021507209A (ja) | コンピュータ生成された参照物体を有するマシンビジョンシステム | |
EP3606061B1 (en) | Projection device, projection system and an image calibration method | |
KR20130075712A (ko) | 레이저비전 센서 및 그 보정방법 | |
US20020065637A1 (en) | Method and apparatus for simulating the measurement of a part without using a physical measurement system | |
JP2015206654A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5441752B2 (ja) | 環境内の3d物体の3d姿勢を推定する方法及び装置 | |
US20240157568A1 (en) | System for welding at least a portion of a piece and related methods | |
Zhou et al. | Calibration of RGB-D camera using depth correction model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170314 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6163942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |