JP2016099257A - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP2016099257A JP2016099257A JP2014237195A JP2014237195A JP2016099257A JP 2016099257 A JP2016099257 A JP 2016099257A JP 2014237195 A JP2014237195 A JP 2014237195A JP 2014237195 A JP2014237195 A JP 2014237195A JP 2016099257 A JP2016099257 A JP 2016099257A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- target object
- information processing
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物体の三次元位置姿勢を求める情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method for obtaining a three-dimensional position and orientation of a target object.
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品をピッキングして組立を行う。従来、ピッキングするための部品の供給は、パーツフィーダと呼ばれる部品1つ1つを並べて供給するための装置を利用したり、パレット(箱)に部品を様々な姿勢で山積みしたりすることによって行われている。 Along with the development of robot technology in recent years, robots are instead performing complicated tasks that have been performed by humans, such as assembly of industrial products. Such a robot performs assembly by picking parts with an end effector such as a hand. Conventionally, parts for picking are supplied by using a device called a parts feeder for supplying parts one by one, or by stacking parts in various positions on a pallet (box). It has been broken.
パーツフィーダを利用する場合は、部品1つ1つの位置姿勢が予め決まった状態で供給されるため、ロボットによるピッキングは比較的容易に行われる。しかしながら、パーツフィーダ装置を用意するためのコストが余計にかかる。また、部品の形状に合わせて異なるパーツフィーダを用意しなければならない。一方、部品を山積みにして供給する場合は、パレットに部品を置くだけでよいためコスト増を回避することができる。さらに、近年の少量多品種生産の傾向を受けて、様々な部品へ素早く対応することができる山積み供給に注目が集まっている。
このような動向の中、二次元カメラや三次元計測装置と部品認識との組み合わせによるピッキング作業システムの開発が行われている。
When using the parts feeder, since the position and orientation of each part is supplied in a predetermined state, picking by the robot is relatively easy. However, the cost for preparing the parts feeder device is excessive. Also, different parts feeders must be prepared according to the shape of the parts. On the other hand, when supplying parts in piles, it is only necessary to place the parts on a pallet, so that an increase in cost can be avoided. Furthermore, in response to the recent trend of low-volume, high-mix production, attention has been focused on the supply of piles that can quickly respond to various parts.
Under these trends, picking work systems are being developed by combining two-dimensional cameras and three-dimensional measuring devices with component recognition.
対象物体の位置姿勢を認識するための認識装置として、特許文献1に記載の技術がある。ここでは、先ず、パレットの上方に設置されたカメラにより複数の対象物体全体を撮影し、撮影した画像上での二次元位置を求める。次に、カメラから1つの対象物体までの直線を求め、ロボットの手先部に搭載したセンサがその直線上に来るようにロボットを動かす。そして当該センサによって対象物体の位置姿勢を計測する。このように全体を撮影するカメラと、計測範囲は狭いが精度よく位置姿勢を検出することができるセンサとを組み合わせて段階的に処理することで、対象物体を高精度かつ高速に計測するようにしている。
As a recognition device for recognizing the position and orientation of a target object, there is a technique described in
上記特許文献1に記載の認識装置では、必ずパレットの上方に設置されたカメラと対象物体とを結ぶ直線上で、ロボットの手先部に搭載したセンサによる三次元計測を行う。そのため、対象物体が向いている方向によっては、必ずしも計測しやすい状態にはならない。例えば、対象物体に計測用の照明光を当てる場合、対象物体が向いている方向によっては照明光によって発生する影がカメラに映り込む。また、上記の影以外にも、手前にある障害物が背後にある対象物体を隠して見えないようにしてしまう状態が発生し得る。このようなオクルージョンが発生すると、画像処理を行う際の妨げになるため位置姿勢の計測が困難になる。
そこで、本発明は、オクルージョンが発生し得る状況下においても、当該オクルージョンの影響を考慮し、高精度に対象物体の位置姿勢を計測することを目的とする。
In the recognition apparatus described in
Therefore, an object of the present invention is to measure the position and orientation of a target object with high accuracy in consideration of the influence of the occlusion even in a situation where occlusion may occur.
上記課題を解決するために、本発明に係る情報処理装置の一態様は、第一の位置姿勢で、対象物体に関する二次元情報もしくは三次元情報を取得するセンサ手段と、前記第一の位置姿勢で前記センサ手段により取得された二次元情報もしくは三次元情報に基づいて、複数の視点から前記対象物体を見たときの、当該対象物体が遮蔽される隠れ領域をそれぞれ算出する算出手段と、前記算出手段で算出した隠れ領域に基づいて、前記対象物体の位置姿勢を計測するための三次元情報を取得可能なセンサ手段の位置姿勢として、前記第一の位置姿勢とは異なる第二の位置姿勢を決定する決定手段と、を備えることを特徴とする。 In order to solve the above-described problem, an aspect of the information processing apparatus according to the present invention includes a sensor unit that acquires two-dimensional information or three-dimensional information about a target object in a first position and orientation, and the first position and orientation. Calculating means for calculating a hidden area where the target object is shielded when the target object is viewed from a plurality of viewpoints based on the two-dimensional information or the three-dimensional information acquired by the sensor means; A second position and orientation different from the first position and orientation as the position and orientation of the sensor means capable of acquiring three-dimensional information for measuring the position and orientation of the target object based on the hidden area calculated by the calculating means Determining means for determining.
本発明によれば、オクルージョンが発生し得る状況下においても、当該オクルージョンの影響を考慮し、高精度に対象物体の位置姿勢を計測することができる。 According to the present invention, it is possible to measure the position and orientation of a target object with high accuracy in consideration of the influence of the occlusion even in a situation where occlusion may occur.
以下、添付図面を参照して、本発明を実施するための好適な形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
(第一の実施形態)
図1は、第一の実施形態における情報処理装置を備えるロボットシステム100の構成例を示す図である。
ロボットシステム100は、ロボット10と、情報処理部20と、を備える。
ロボット10は、例えば多関節ロボットであり、アームの先端部(手先部)には、センサ部11が姿勢を変更可能に取り付けられている。センサ部11は、ロボット10の手先部付近にある物体を撮影し、画像データを情報処理部20に出力する。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration example of a
The
The
また、ロボット10は、センサ部11の位置姿勢、すなわち、ロボット10の手先部の位置及びセンサ部11の姿勢を変更可能な位置姿勢変更機構12を備える。位置姿勢変更機構12は、ロボット10の各関節の角度を変更することで当該ロボット10の手先部の位置やセンサ部11の姿勢を変更する。ここで、位置姿勢変更機構12は、電動モータによって駆動されてもよいし、油圧や空気圧等の流体圧で作動するアクチュエータによって駆動されてもよい。この位置姿勢変更機構12は、情報処理部20が備える後述するロボットコントローラ部220からの制御指令を受けて駆動される。
The
さらに、ロボット10の手先部には、エンドエフェクタ13が取り付けられている。エンドエフェクタ13は、ロボット10のワークの種類に応じた作業を実現するためのツールであり、例えばロボットハンド等である。当該ロボットハンドとしては、モータ駆動可能なチャック機構を有し物体を把持可能なハンドや、空気圧で物体を吸着する吸着パッドを用いたハンド等を用いることができる。なお、エンドエフェクタ13は、アームに対して着脱可能に取り付けられており、ワークの種類に応じて交換可能である。
なお、センサ部11の位置姿勢、ロボット10やハンド13の位置や軌道、ロボット10のアームとセンサ部11との相対位置姿勢のキャリブレーション作業は、予め所定の手法により行われているものとする。
Further, an
Note that the calibration work of the position and orientation of the
また、ロボット10は、多関節ロボットに限定されるものではなく、数値制御(Numerical Control:NC)可能な可動式の機械であってもよい。
情報処理装置20は、センサ部11で撮影された被計測対象物30の二次元画像を入力し、その画像データをもとに所定の画像処理を実行して位置姿勢変更機構12及びハンド13を駆動制御する。
被計測対象物30は、複数の対象物体31が様々な姿勢でパレット32に山積みされたものである。対象物体31は、例えば、工業製品を構成する部品である。この対象物体31の素材は、プラスチック、金属、ビニールなど、いずれの素材であってもよい。
The
The
The
パレット32は、対象物体31を収容する箱であり、素材や形状には特に制約はない。但し、作りやすさの観点からは、例えば、素材はプラスチックや紙、形状は立方体や直方体にすることが好ましい。また、パレット32の大きさにも制約はないが、センサ部11による撮影可能範囲内に収まる大きさであることが好ましい。
情報処理装置20は、センサ部11で撮影された二次元画像をもとに対象物体31の三次元位置姿勢を計測し、その計測結果に基づいて、ロボット10を駆動制御し、当該ロボット10による対象物体31のピッキング作業を行う。
The
The
次に、センサ部11の構成について具体的に説明する。
センサ部11は、図2に示すように、プロジェクタ(投影手段)111とカメラ(撮像手段)112とを備え、三角測量の原理を用いて対象物体31に関する三次元情報(距離画像や三次元点群データ)を取得する。
プロジェクタ111は、対象物体31に対してパターン光を投射し、カメラ112は、当該パターン光が投射された対象物体31の二次元画像を撮影する。センサ部11は、カメラ112で撮影した画像データを情報処理部20に出力する。パターン光としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどを利用することができる。
Next, the configuration of the
As shown in FIG. 2, the
The
図3は、プロジェクタ111から投射するパターン光の一例である。
図3に示すパターン光201〜203は、明暗のスリットを交互に配した縞パターンを有するパターン光である。なお、ここでは、3bitのグレイコードによる縞パターンを示しているが、3bitに限定されるものではない。Nbitの空間符号化を行う場合には、スリット光パターンはN枚となる。
ここで、光パターン202は、光パターン201に対して空間解像度が2倍になっている縞パターン光である。同様に、光パターン203は、光パターン202に対して空間解像度が2倍になっている縞パターン光である。情報処理部20は、センサ部11から入力された画像データをもとに撮像範囲を8分割し、対象物体131を認識する。
なお、パターン光は、二次元的なパターンやランダムドットのようなパターンでもよい。また、センサ部11は、回折格子と照明とカメラとから構成されていてもよい。この場合は、回折格子と照明とにより対象物体にパターン光を投射し、カメラによりパターンを撮影すればよい。
FIG. 3 is an example of pattern light projected from the
Here, the
The pattern light may be a two-dimensional pattern or a pattern such as a random dot. Moreover, the
プロジェクタ111とカメラ112との配置は、アクティブステレオ法等による三次元計測が可能な配置とする。すなわち、アクティブステレオ法等による三次元計測が可能とするためには、計測用のパターン光の計測線の方向に対して垂直な方向に視差を取る必要がある。そのため、プロジェクタ111とカメラ112との位置は、視差の影響により必ず視線方向のずれが生じる。カメラ112の視野とプロジェクタ111の投影範囲とが重なった領域内に対象物体31が入ることで三次元計測が可能となる。
The
次に、情報処理部20の構成について具体的に説明する。
情報処理部20は、例えばパーソナルコンピューター(PC)に搭載されており、図1に示すように、画像処理部210と、ロボットコントローラ部210と、を備える。
画像処理部210は、第一の位置姿勢を有するセンサ部11が取得した対象物体31の三次元情報を取得し、当該三次元情報をもとに対象物体31の位置姿勢を計測する。次に、画像処理部210は、対象物体31の位置姿勢情報をもとにセンサ部11の第二の位置姿勢を決定し、ロボットコントローラ部220はセンサ部11を第二の位置姿勢に移動する。そして、画像処理部210は、第二の位置姿勢を有するセンサ部11が取得した対象物体31の三次元情報を取得し、当該三次元情報をもとに対象物体31の位置姿勢を計測する。その後は、既定の条件を満足するまで、第二の位置姿勢を第一の位置姿勢として設定し直し、上記の処理を繰り返してもよい。
Next, the configuration of the
The
The
このように、本ロボットシステム100では、対象物体31の三次元位置姿勢計測を複数回行う。このとき、画像処理部210は、センサ部11の第二の位置姿勢を、対象物体31の三次元位置姿勢計測を効率良く行うことができる位置姿勢に設定する。これにより、三次元情報を取得する回数を繰り返す毎に、対象物体31に対する詳細な三次元位置姿勢計測結果を得るようにする。
Thus, in the
以下、画像処理部210及びロボットコントローラ部210を構成する各部について詳細に説明する。
画像処理部210は、センサ情報取得部211と、モデル情報保持部212と、三次元位置姿勢計測部213と、オクルージョン推定部214と、センサ位置姿勢決定部215と、を備える。また、ロボットコントローラ部210は、ロボット作業指示部221と、ロボット制御部222と、を備える。
センサ情報取得部211は、センサ部11が出力する二次元画像を取得し、取得した二次元画像を三次元位置姿勢計測部213に出力する。
モデル情報保持部212は、後述する三次元位置姿勢計測部213で対象物体31の位置姿勢を計測するために利用されるモデル情報を保持する。モデル情報としては、三次元CADに基づく三次元幾何モデルや、実際の対象物体31もしくは対象物体31を模した三次元幾何モデルを予め定められた複数の視点から見た参照画像モデル等が挙げられる。
Hereinafter, each part which comprises the
The
The sensor
The model
上記三次元幾何モデルは、三次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは三次元CADモデルをコンピュータグラフィックス分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、ポリゴン要素を利用した場合について説明する。
三次元幾何モデルは、図4〜図9に示すように、点、線、面といった構成要素からなる。ここで、図4〜図9は、いずれも同じ三次元幾何モデルを示している。図4及び図5は三次元幾何モデルの各頂点を示し、図6及び図7は三次元幾何モデルの各辺となる線を示し、図8及び図9は三次元幾何モデルの各面を示す。三次元幾何モデルには、図9に示すように、三次元幾何モデルを構成する面の法線データが含まれている。
The three-dimensional geometric model is a CAD model itself that can be handled by three-dimensional CAD software, or a three-dimensional CAD model converted into a plurality of polygon elements used in the computer graphics field. In the present embodiment, a case where a polygon element is used will be described.
As shown in FIGS. 4 to 9, the three-dimensional geometric model includes components such as points, lines, and surfaces. Here, FIGS. 4 to 9 show the same three-dimensional geometric model. 4 and 5 show the vertices of the 3D geometric model, FIGS. 6 and 7 show the lines that form the sides of the 3D geometric model, and FIGS. 8 and 9 show the faces of the 3D geometric model. . As shown in FIG. 9, the three-dimensional geometric model includes normal data of surfaces constituting the three-dimensional geometric model.
上記参照画像モデルは、複数の二次元画像からなるデータである。実写画像に基づく参照画像モデルは、対象物体31を中心にして様々な方向からカメラで撮影を行って得た画像から作成する。撮影を行うためにやぐらを組んでカメラを複数配置してもよいし、人が手でカメラを持って撮影してもよいし、ロボットに装着したカメラでロボットを動かしながら撮影を行ってもよい。このように、様々な方法で撮影を行ってもよいが、撮影したときのカメラと対象物体31との相対位置姿勢を求め、撮影画像と併せて記憶しておくものとする。当該相対位置姿勢は、やぐらに複数のカメラを配置したときは、やぐらの形状から求めることができる。また、人が手でカメラを持つ場合は、カメラに位置姿勢センサを装着して求めることができる。さらに、ロボットに装着したカメラで撮影するときは、ロボットの制御情報を利用して求めることができる。
The reference image model is data composed of a plurality of two-dimensional images. The reference image model based on the photographed image is created from images obtained by photographing with a camera from various directions around the
対象物体31を模した三次元幾何モデルに基づく参照画像モデルは、CADモデルの中心から、頂点が等しい距離になるジオデシック・ドーム(Geodesic Dome)を設定し、ジオデシック・ドームの頂点からCADモデルの中心を向いてみたときの画像を用いる。ジオデシック・ドームの頂点は複数あり、隣り合ったそれぞれの頂点は同じ距離となる。ある頂点を基準位置として、他の頂点との相対的な関係を元にどの方向から見たかを画像と共に記憶しておく。ここでは、ジオデシック・ドームの各頂点から中心を観察したときの画像を参照画像モデルとする。なお、参照画像モデルは輝度画像でもよいし距離画像でもよい。
The reference image model based on the three-dimensional geometric model imitating the
また、対象物体31が1種類と予め分かっている場合は、その種類のモデル情報だけ保存する。一方、複数種類の対象物体31を扱う場合は、複数のモデル情報を保存しておき、利用時に切り替える。
三次元位置姿勢計測部213は、センサ情報取得部211から出力された二次元画像を解析したデータと、モデル情報保持部212が保持しているモデル情報とを利用し、対象物体31の位置姿勢を求める。このとき、三次元位置姿勢計測部213は、複数の対象物体31の位置姿勢情報と、複数の対象物体31のうちロボット10による把持対象となる1つの対象物体31(計測対象物体311)の位置姿勢情報とを算出する。そして、三次元位置姿勢計測部213は、求めた位置姿勢情報をオクルージョン推定部213に出力する。
If the
The three-dimensional position /
上記モデル情報として三次元幾何モデルを利用する場合は、三次元幾何モデルから抽出した表面の点群データと、センサ情報取得部211から出力された二次元のパターン画像から抽出した距離点群との対応付けを行うことで対象物体31の位置姿勢を求める。
パターン画像から距離点群を求めるには、空間符号化法、光切断法などの技術を用いればよい。求めた距離点群とモデル情報とを利用して対象物体31の位置姿勢を求めるために、本実施形態では、例えばICP(Iterative Closest Point)法を用い、対象物体31の位置姿勢を反復演算によって繰り返し補正する。なお、対象物体31の位置姿勢を求めるための手法はICP法に限定されるものではない。
When a 3D geometric model is used as the model information, the surface point cloud data extracted from the 3D geometric model and the distance point cloud extracted from the 2D pattern image output from the sensor
In order to obtain the distance point group from the pattern image, a technique such as a spatial encoding method or a light cutting method may be used. In this embodiment, in order to obtain the position and orientation of the
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体31との位置姿勢情報に基づいて対象物体31の位置姿勢を求める。
オクルージョン推定部214は、三次元位置姿勢計測部213で得られた複数の対象物体31の位置姿勢情報を用い、パレット32内の計測対象物体311を更に詳細に撮影するためのセンサ部11の位置姿勢(第二の位置姿勢)を決定する。このとき、複数の候補位置姿勢を作成し、各候補位置姿勢で撮影したときのオクルージョンの発生状況をシミュレーションする。そして、そのシミュレーション結果をもとに、最適な第二の位置姿勢を決定する。
When a reference image model is used as model information, a reference image that most closely matches is obtained by template matching using the reference image model as a template, and the target is determined based on position and orientation information with the
The
ここで、オクルージョンとは、例えばステレオ法を用いた距離計測手法を行う際に、カメラ112とプロジェクタ111との視差と計測対象物体の配置との関係により、計測対象物体がプロジェクタ111によって捉えることができなくなる状態のことをいう。プロジェクタ111から投射したパターン投影光の影が計測対象物体に掛かる場合などがこれに該当する。また、このオクルージョンの発生により、プロジェクタ111によって捉えることができなくなった領域(計測対象物体が遮蔽された領域)のことを、隠れ領域(オクルージョン領域)という。
Here, the occlusion means that when the distance measurement method using, for example, the stereo method is performed, the measurement target object is captured by the
図10は、オクルージョンの発生状況の一例を示す図である。
センサ部11を、プロジェクタ111及びカメラ112が図10に示す位置姿勢となるように配置し、プロジェクタ111から計測対象物体311へ向けて投射したパターン光をカメラ112によって撮影する場合について説明する。この場合、プロジェクタ111から投射したパターン光は、計測対象物体311近傍に配置された障害物312によって影となり、計測対象物体311に照射されない。そのため、カメラ112は、プロジェクタ111のパターン投影光を撮影することはできない。このとき発生する影の領域301が隠れ領域である。
ここで、障害物312は、例えば、計測対象物体311以外の対象物体31である。この図10では、障害物312は計測対象物体311と同一形状であるが、垂直に立った状態で配置されていたものとしている。
FIG. 10 is a diagram illustrating an example of an occurrence state of occlusion.
A case will be described in which the
Here, the
隠れ領域301の量は、オクルージョン量302として観測される。図10では平面図であるため、オクルージョン量302の直線の長さが隠れ領域301の量に相当する。但し、実際には、オクルージョン量302は、三次元モデルでのレンダリング法により面積として観測されるため、総面積量によってオクルージョン量302が算出される。
オクルージョンの発生は、対象物体31の位置姿勢とセンサ部11の位置姿勢によって決まる。そのため、既存のコンピュータグラフィックス技術を用いることで、センサ部11が任意の位置姿勢を取った場合の撮影画像の状態の予測を行うことができる。
そこで、オクルージョン推定部214は、複数の対象物体31の位置姿勢情報、パレット32の位置姿勢情報、光源(プロジェクタ111)の情報、及びセンサ部11の位置姿勢情報を用いてレンダリングを行う。レンダリング技法には、レイトレーシング法などを用いることができる。
The amount of the hidden
Occlusion occurs depending on the position and orientation of the
Therefore, the
オクルージョン推定部214は、複数の視点からそれぞれ計測対象物体311を見たときの、当該計測対象物体311が遮蔽される隠れ領域をそれぞれ算出する。すなわち、オクルージョン推定部214は、センサ部11の位置姿勢の候補を複数設定し、それぞれの位置姿勢のときのオクルージョン量を推定する。
センサ位置姿勢決定部215は、オクルージョン推定部214で推定した各候補位置姿勢でのオクルージョン量に基づいて、センサ部11の第二の位置姿勢を決定する。本実施形態では、オクルージョン量が最小となる候補位置姿勢を、第二の位置姿勢として決定する。そして、センサ位置姿勢決定部215は、決定したセンサ部11の位置姿勢情報をロボットコントローラ部220のロボット作業指示部221へ出力する。
The
The sensor position /
ロボット作業指示部221は、三次元位置姿勢計測部213や、センサ位置姿勢決定部215の計測結果に基づいて、ロボット10に対する作業を指示する情報(作業指示情報)を設定する。例えば、ロボット作業指示部221は、センサ部11を所定の位置まで移動するような作業指示情報や、センサ部11を所定の姿勢とするような作業指示情報を設定する。また、ロボット作業指示部221は、対象物体31を把持または吸着できる位置にハンド13を移動させ、把持または吸着作業を実行するような作業指示情報を設定する。なお、ロボット10の作業は移動、把持、吸着に限られるものではなく、対象物体31の外観検査など、他の作業も含むことは言うまでもない。
ロボット制御部222は、ロボット作業指示部221で設定した作業指示情報を受けて、ロボット10の制御を行う。
The robot
The
次に、情報処理部20で実行する情報処理手順について詳細に説明する。
図11は、情報処理部20で実行する情報処理手順を示すフローチャートである。
先ずステップS1で、情報処理部20は、ロボット制御部222によりロボット10を駆動制御し、予め設定された第一の位置姿勢にセンサ部11を移動する。ここで、第一の位置姿勢は、山積みされた対象物体31をパレット32の上方から撮影でき、且つパレット32の全体を撮影できる位置姿勢とする。なお、センサ部11の位置姿勢とロボット10の座標系との相対的な位置関係は、予めキャリブレーション作業を実施して求まっているものとする。
Next, an information processing procedure executed by the
FIG. 11 is a flowchart illustrating an information processing procedure executed by the
First, in step S1, the
次にステップS2では、情報処理部20は、第一の位置姿勢でカメラ112が対象物体31を撮影した二次元画像を、センサ情報取得部211によって取得し、ステップS3に移行する。
ステップS3では、情報処理部20は、ステップS2で取得した二次元画像をもとに、三次元位置姿勢計測部213で対象物体31の三次元位置姿勢を計測する。そして、情報処理部20は、複数ある対象物体31のうちの1つをピッキング作業の把持候補として選択する。選出する基準は、部品のCADモデルのフィッティング時の誤差の推定値等から決定することができる。
Next, in step S2, the
In step S3, the
以下、フィッティングアルゴリズムについて説明する。
対象物体31の位置姿勢を求めるために、モデル情報保持部212が保持しているモデル情報を参照し、対象物体31の画像と当該モデル情報とのマッチングを行う。
モデル情報として三次元幾何モデルを利用する場合は、上述したように、三次元幾何モデルの表面の点群と、センサ情報取得部211から出力されたパターン画像から求めた距離画像点群との対応付けを行うことで対象物体の位置姿勢を求める。パターン画像から距離点群を求めるには、空間符号化法、光切断法などの技術を用いればよい。三次元幾何モデルの点群と距離画像点群との対応付けを行うために、ここではICP法を用いる。
Hereinafter, the fitting algorithm will be described.
In order to obtain the position and orientation of the
When a 3D geometric model is used as model information, as described above, the correspondence between the point group on the surface of the 3D geometric model and the distance image point group obtained from the pattern image output from the sensor
先ず、3次元幾何モデルの表面点群をPとする。
P={p1,p2,…,pNp} ………(1)
また、距離画像点群をAとする。
A={a1,a2,…,aNa} ………(2)
三次元幾何モデルの表面点群Pを変換して距離点群Aに位置合わせする。点群Pの各点Piに距離が最も近い点群Aの点をbi∈Aとしたとき、下記(3)式の誤差関数を定義できる。ここで、Rとtは、それぞれ姿勢パラメータと移動ベクトルである。
First, let P be the surface point group of the three-dimensional geometric model.
P = {p 1, p 2, ... , P Np } (1)
Also, let the distance image point group be A.
A = {a 1, a 2, ... , A Na } (2)
The surface point group P of the three-dimensional geometric model is converted and aligned with the distance point group A. When a point of point group A that is closest to each point P i of point group P is b i εA, an error function of the following equation (3) can be defined. Here, R and t are a posture parameter and a movement vector, respectively.
誤差関数Eを小さくするRとtを求め、下記(4)式による補正を行う。
P←RP+t ………(4)
Pの収束判定を行い、収束していれば終了し、そうでなければ繰り返し補正計算を行う。収束判定では、Pがほとんど変化しないことをもって収束したと判定する。このように収束するまで繰り返すことで、位置姿勢を算出できる。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体との位置姿勢情報を元に対象物体の位置姿勢を求める。参照画像の距離値をG(i,j)、パターン画像から求めた距離画像の距離値をD(i,j)として、参照画像をm×n画素の画像としたとき、一致度Uは下記(5)式で求めることができる。
R and t for reducing the error function E are obtained, and correction is performed by the following equation (4).
P ← RP + t (4)
The convergence judgment of P is performed. If it has converged, the process ends. If not, the correction calculation is repeated. In the convergence determination, it is determined that P has converged when P hardly changes. The position and orientation can be calculated by repeating until convergence.
When a reference image model is used as model information, a reference image that most closely matches is obtained by template matching using the reference image model as a template, and the target object is based on position and orientation information with the target object associated with the reference image. Find the position and orientation of When the distance value of the reference image is G (i, j), the distance value of the distance image obtained from the pattern image is D (i, j), and the reference image is an image of m × n pixels, the matching degree U is as follows: (5) It can obtain | require by Formula.
以上により、複数の対象物体31の位置姿勢と、ピッキング候補である対象物体31の位置姿勢とを求める。
次にステップS4では、情報処理部20は、ピッキング候補である対象物体31に対するフィッティング誤差が予め設定した一定値以下であるか否かを判定する。ここでは、上記(5)式で求められる一致度Uが閾値以下であるか否かを判定する。
そして、一致度Uが閾値を超えている場合には、フィッティング誤差量が大きいため、対象物体31の三次元計測のための再撮影が必要であると判断してステップS5に移行する。一方、一致度Uが閾値以下である場合には、フィッティングが問題なく成功しており、対象物体31の再撮影は必要ないと判断して後述するステップS12に移行する。
ステップS5では、情報処理部20は、第一の位置姿勢での三次元計測結果をもとに、対象物体31をより詳細に撮影するためのセンサ部11(カメラ112)の位置である第二の計測位置を決定する。
As described above, the position and orientation of the plurality of target objects 31 and the position and orientation of the
Next, in step S4, the
If the degree of coincidence U exceeds the threshold, the amount of fitting error is large, so it is determined that re-photographing for three-dimensional measurement of the
In step S5, the
例えば、センサ部11を、カメラ112の光軸とプロジェクタ111の光軸とを含む面内で、対象物体31を中心に第一の位置姿勢から所定角度回転させた位置を、第二の計測位置とする。例えば、カメラ112で撮影した画像中の対象物体31部分に白とびが発生しない位置を、第二の計測位置として決定してもよい。また、カメラ112の光軸方向とプロジェクタ111の光軸方向とがなす角の二等分方向と、対象物体31の面の法線方向とが所定の角度以上(例えば10度以上)ずれている位置を、第二の計測位置として決定してもよい。さらに、三次元幾何モデルや参照画像モデルに予め計測するのに適切なセンサ部11の位置姿勢を登録しておき、これを第二の計測位置として決定してもよい。
For example, a position obtained by rotating the
次にステップS6では、情報処理部20は、図12に示す第二の位置姿勢決定処理を実施により、第二の計測位置でのセンサ部11の姿勢である第二の位置姿勢を決定する。ここで、第二の位置姿勢は、第二の計測位置でオクルージョン量の総量が最小となる姿勢とする。以下、第二の位置姿勢決定処理について具体的に説明する。
図12に示すように、先ずステップS61で、情報処理部20は、上記のステップS2で求めた複数の対象物体31の位置姿勢情報と、ピッキング候補の対象物体31の位置姿勢情報とを取得する。また、情報処理部20は、モデル情報保持部212が保持しているモデル情報を取得する。さらに、情報処理部20は、センサ部11のパレット32に対する位置姿勢情報やセンサ部11のキャリブレーション情報を取得する。
Next, in step S <b> 6, the
As shown in FIG. 12, first, in step S61, the
次にステップS62で、情報処理部20は、第二の位置姿勢の候補である姿勢候補を複数作成する。ここでは、図13に示すように、例えばカメラ112のレンズの中心を通りレンズ面と直交する方向を撮影視線方向Zと定義し、当該撮影視線方向Zを軸として、カメラ112を中心にプロジェクタ111を回転させた位置を姿勢候補とする。より具体的には、図14に示すように、カメラ112を中心にプロジェクタ111を2π/n[rad]ずつ回転させた位置を、それぞれ姿勢候補とする。ここで、上記nは、処理量と精度とから任意の値を決めるものとする。このように、ステップS62では、n個の姿勢候補を作成する。
Next, in step S62, the
次にステップS63では、情報処理部20は、ステップS62で作成したn個の姿勢候補につき、上述したオクルージョン量評価手法を用いて、それぞれのオクルージョン量を算出する。
次にステップS64では、情報処理部20は、各姿勢候補のオクルージョン量を比較し、オクルージョン量が最小となる姿勢候補を第二の位置姿勢として選択する。
図11に戻って、ステップS7では、情報処理部20は、ロボット制御部222によりロボット10を駆動制御し、上記のステップS6で決定した第二の位置姿勢にセンサ部11を移動する。
Next, in step S63, the
Next, in step S64, the
Returning to FIG. 11, in step S7, the
次にステップS8では、情報処理部20は、第二の位置姿勢でカメラ112が対象物体31を撮影した二次元画像を、センサ情報取得部211によって取得し、ステップS9に移行する。
ステップS9では、情報処理部20は、ステップS8で取得した二次元画像をもとに、上述したステップS3と同様の処理により、三次元位置姿勢計測部213で対象物体31の三次元位置姿勢を計測する。なお、第二の位置姿勢は、周辺の障害物の配置状態を考慮した配置であるため、このステップS9では、オクルージョン量が少ない三次元計測が可能となる。そのため、ピッキング候補の対象物体31の位置姿勢を比較的精度良く求めることができる。
Next, in step S8, the
In step S9, the
次にステップS10では、情報処理部20は、三次元位置姿勢計測を繰り返すか否かを判定する。ここでは、例えば、ステップS9の計測結果をもとに、ピッキング候補である対象物体31に対するフィッティング誤差が予め設定した一定値以下であるか否かを判定する。すなわち、上記(5)式で求められる一致度Uが閾値以下であるか否かを判定する。そして、フィッティング誤差が一定値を上回っている場合には、対象物体31のピッキングが困難であり、再度、対象物体31の三次元位置姿勢計測を繰り返す必要がある(繰り返し計測が必要である)と判断し、ステップS11に移行する。
ステップS11では、情報処理部20は、上記ステップS6で決定した第二の位置姿勢を第一の位置姿勢として再設定し、上記ステップS5に戻る。すなわち、上記ステップS6で決定した第二の位置姿勢での計測結果をもとに、新たな第二の位置姿勢を決定し、新たな第二の位置姿勢で三次元位置姿勢計測を実施する。
Next, in step S10, the
In step S11, the
一方、上記ステップS10で、フィッティング誤差が一定値以下であると判断した場合には、対象物体31のピッキングが可能であると判断してステップS12に移行する。
なお、ステップS10では、繰り返し計測の終了判定として、フィッティング誤差が一定値以下であるか否かを判定する場合について説明したが、例えば、第二の位置姿勢でのオクルージョン量(隠れ領域の大きさ)が閾値以下である場合や、第一の位置姿勢と第二の位置姿勢との差である位置姿勢変化量(センサ部11の移動量)が閾値以下である場合に、繰り返し計測を終了すると判断してもよい。
On the other hand, if it is determined in step S10 that the fitting error is equal to or less than a certain value, it is determined that the
In step S10, the case where it is determined whether or not the fitting error is equal to or less than a certain value has been described as the end determination of the repeated measurement. For example, the occlusion amount (the size of the hidden area) in the second position and orientation is described. ) Is less than or equal to the threshold, or when the position and orientation change amount (movement amount of the sensor unit 11), which is the difference between the first position and orientation, is less than or equal to the threshold, You may judge.
ステップS12では、情報処理部20は、ロボット制御部222によりロボット10を駆動制御し、ピッキング候補の対象物体31に対する作業を指示する。すなわち、ロボット10が対象物体31を把持するハンド13を有する場合には、ロボット制御部222がロボット10に対して対象物体31を把持するよう指示する。また、ロボット10が対象物体31を吸着するハンド13を有する場合には、ロボット制御部222がロボット10に対して対象物体31を吸着するよう指示する。
In step S <b> 12, the
次にステップS13では、情報処理部20は、ロボット10による作業を終了するか否かを判定する。ここでは、例えば、オペレータからの終了指示があったか否かを判定する。そして、終了指示がなければ上記ステップS1に戻り、終了指示があれば処理を終了する。
なお、図11に示す処理は、例えばオペレータが図示しない緊急停止ボタンを押すことにより強制的に終了することもできる。
なお、図1において、センサ部11はセンサ手段の一例に相当し、位置姿勢変更機構12は移動手段の一例に相当する。また、三次元位置姿勢計測部213は計測手段の一例に相当し、オクルージョン推定部214は算出手段の一例に相当し、センサ位置姿勢決定部215は決定手段の一例に相当する。さらに、ロボットコントローラ部220は制御手段の一例に相当する。また、図11において、ステップS10は繰り返し手段の一例に相当する。
Next, in step S <b> 13, the
Note that the processing shown in FIG. 11 can be forcibly terminated by, for example, pressing an emergency stop button (not shown) by the operator.
In FIG. 1, the
以上のように、本実施形態では、プロジェクタ(投影手段)111とカメラ(撮像手段)112とを備えるセンサ部11を用いて、対象物体31の三次元位置姿勢計測を複数回行う。その際、先ず、図15に示すように、第一の位置姿勢P1で複数の対象物体31に関する三次元情報を取得し、複数の対象物体31のうちピッキング候補となる対象物体(計測対象物体)311やその周辺の障害物312の三次元位置姿勢計測を行う。そして、その三次元位置姿勢計測結果に基づいて、第二の計測位置を決定する。この第二の計測位置は、センサ部11を、対象物体311を中心にプロジェクタ111の光軸とカメラ112の光軸とを含む面内で所定角度回転させた位置であり、例えば図10に示す位置に決定されたものとする。
As described above, in this embodiment, the three-dimensional position and orientation measurement of the
しかしながら、図10に示す状態では、プロジェクタ111から対象物体311を観察した場合、当該対象物体311は障害物312の後ろに隠れる。つまり、プロジェクタ111のパターン投影光は、障害物312によって遮蔽され、対象物体311に照射されない。このように、図10に示す位置姿勢ではオクルージョンが発生し、カメラ112はプロジェクタ111のパターン投影光を撮影することができない。
このように、センサ部11と対象物体311との相対的な姿勢関係によって、プロジェクタ111のパターン照明光による想定外のオクルージョンが発生すると、その領域では三次元位置姿勢計測が不可能になる。
However, in the state illustrated in FIG. 10, when the
As described above, when unexpected occlusion occurs due to the pattern illumination light of the
そこで、本実施形態では、複数の視点からプロジェクタ111によって対象物体311を見たときの、当該対象物体311が遮蔽される隠れ領域をそれぞれ算出する。そして、算出した隠れ領域の大きさ(オクルージョン量)に基づいて、三次元計測に適したセンサ部11の第二の位置姿勢を決定し、当該第二の位置姿勢にて対象物体311の三次元計測を行うようにする。
このように、対象物体311に対する隠れ領域を考慮してセンサ部11の第二の位置姿勢を決定するので、第二の位置姿勢を有するセンサ部11によって対象物体311に関する適切な三次元情報を取得することができる。そのため、オクルージョンの発生により対象物体311の位置姿勢(三次元形状)の計測精度が低下するのを抑制し、適切な三次元計測が可能となる。
Therefore, in the present embodiment, a hidden region where the
Thus, since the second position and orientation of the
このとき、第二の計測位置において、カメラ112の視線方向を軸とし、カメラ112を中心にプロジェクタ111を回転させて第二の位置姿勢を決定してもよい。具体的には、カメラ112を中心にプロジェクタ111を2π/n[rad]ずつ回転させたn個の姿勢候補について、それぞれオクルージョン量を推定し、第二の位置姿勢を決定することができる。これにより、比較的簡易に第二の位置姿勢の候補を作成することができ、容易にオクルージョンの発生状況をシミュレーションすることができる。
At this time, the second position and orientation may be determined by rotating the
図16に示すように、カメラ112の座標(位置)が図10と同じであっても、プロジェクタ111の配置(姿勢)が適切であると、障害物312によって発生する隠れ領域301が対象物体311に掛かることはない。そのため、この図16に示す位置姿勢では、対象物体311に投影されるプロジェクタ111のパターン投影光はオクルージョンの影響を受けることなくすべてカメラ112で観測することができる。
したがって、各姿勢候補のオクルージョン量が最小となる位置姿勢を検索する評価処理を行い、オクルージョン量が最小となる姿勢をセンサ部11の位置姿勢の最適値である第二の位置姿勢として決定することが好ましい。そして、その第二の位置姿勢で対象物体311の三次元情報を取得し、三次元位置姿勢計測を行う。
このように、障害物312とセンサ部11との幾何的配置によって発生する隠れ領域301のオクルージョン量302が最小になるようにセンサ部11の第二の位置姿勢を決定するので、対象物体311の三次元位置姿勢計測を精度良く行うことができる。
As shown in FIG. 16, even if the coordinates (position) of the
Therefore, an evaluation process for searching for a position and orientation that minimizes the occlusion amount of each orientation candidate is performed, and an orientation that minimizes the occlusion amount is determined as the second position and orientation that is the optimum value of the position and orientation of the
As described above, the second position and orientation of the
また、この三次元位置姿勢計測は、規定の条件を満足するまで繰り返し実行することが好ましい。このとき、オクルージョン量が閾値以下となったり、第一の位置姿勢と第二の位置姿勢との差(センサ部11の移動量)が閾値以下となったりした場合に、三次元位置姿勢計測の繰り返しを終了する。これにより、三次元情報を取得する回数を繰り返す毎に、対象物体に対する詳細な三次元位置姿勢計測結果を得ることができる。
そして、上記のように高精度に計測した対象物体311の位置姿勢に基づいて、ロボット10の対象物体311への作業(例えば、把持や吸着)を制御するので、ロボット10による上記作業の失敗を抑制し、効率的な作業を実現することができる。
Further, it is preferable that this three-dimensional position / orientation measurement is repeatedly executed until a prescribed condition is satisfied. At this time, when the occlusion amount is equal to or smaller than the threshold value, or the difference between the first position and posture (the movement amount of the sensor unit 11) is equal to or smaller than the threshold value, the three-dimensional position and posture measurement is performed. End the iteration. Thereby, every time the number of times of acquiring the three-dimensional information is repeated, a detailed three-dimensional position and orientation measurement result for the target object can be obtained.
Since the operation (for example, gripping or suctioning) of the
(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
この第二の実施形態は、対象物体31内の形状に起因する微小オクルージョンを考慮して最適な位置姿勢を特定することで、第二の位置姿勢を決定するようにしたものである。
図17は、第二の実施形態における対象物体31の形状を示す図である。この図17に示すように、対象物体31は、ロボット10のハンド13によって把持される把持部31aを備える。この把持部31aは、対象物体31の特徴部分である。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the second embodiment, the second position and orientation are determined by specifying the optimum position and orientation in consideration of minute occlusion due to the shape in the
FIG. 17 is a diagram illustrating the shape of the
対象物体31が図17に示すように把持部31aを有する形状であると、把持部31aの接続部周辺にオクルージョンが発生する可能性がある。その例を図18に示す。
センサ部11の位置姿勢が図18に示す状態にあり、カメラ112によってピッキング候補である対象物体311を撮影する場合、障害物312によるオクルージョンは発生しないものの、把持部311aによって発生するオクルージョンが対象物体311上に発生する。このように、把持部311a周辺にオクルージョンが発生すると、ロボット10が把持を行うときの場所の特定精度が低下してしまう。
If the
When the position and orientation of the
そこで、本実施形態では、上述した第一の実施形態において実施した障害物312による隠れ領域を最小化するセンサ部11の位置姿勢決定手法を、特徴部分である把持部311a周辺の隠れ領域301に適用する。すなわち、特徴部分である把持部311aに関する隠れ領域301の大きさ(オクルージョン量)が最小となる位置姿勢を、第二の位置姿勢として決定する。
なお、第一の実施形態で示される障害物312による隠れ領域のオクルージョン量最小化のためのセンサ部11の位置姿勢最適化手法と、第二の実施形態で示される把持部311a周辺の隠れ領域のオクルージョン量最小化のためのセンサ部11の位置姿勢最適化手法とは、順次行ってもよいし、可能であれば同時に行ってもよい。
Therefore, in this embodiment, the position and orientation determination method of the
In addition, the position and orientation optimization method of the
以上により、対象物体31の形状に起因する微小オクルージョンに関して最適な位置姿勢を特定することができる。したがって、センサ部11の第二の位置姿勢を適切に決定し、撮影精度を向上することが可能となる。このように、対象物体31内の形状に起因する微小オクルージョン量を少なくすると、特徴部分である把持部311a周辺のオクルージョン量を低減させることが可能となり、ロボット10が把持を行うときの場所の特定の精度が高まる。
また、把持部311aのような局所的な形状は、画像処理(SIFT法、Harris法、Canny法など)において特徴量を持つ場合が多い。そのため、これらの画像特徴量が高くなる個所周辺のオクルージョン量が低減することは、モデルフィッティング等の処理においても精度向上が期待できる。
As described above, the optimum position and orientation with respect to the minute occlusion caused by the shape of the
In addition, a local shape such as the
(第二の実施形態の変形例)
上記第二の実施形態においては、ロボット10による作業として把持や吸着の例を挙げたが、把持を行う場合は、対象物体を把持する箇所(N本指のハンドであればN箇所のスペース)の位置姿勢を特に精度良く求めるようにしてもよい。また、吸着を行う場合は、対象物体を吸着する箇所(安定的な面)の位置姿勢を特に精度良く求めるようにしてもよい。この場合、把持する箇所、吸着する箇所の周囲に存在する特徴的な箇所を利用して上記第二の実施形態で述べた方法を利用する。
(Modification of the second embodiment)
In the second embodiment, examples of gripping and sucking are given as work by the
(第三の実施形態)
次に、本発明の第三の実施形態について説明する。
この第三の実施形態は、上述した第一及び第二の実施形態において、1台のセンサ部11を第一の位置姿勢と第二の位置姿勢とに移動して対象物体31の三次元情報を取得しているのに対し、センサ部を2台設置するようにしたものである。
図19は、第三の実施形態におけるロボットシステム100の構成例を示す図である。
本実施形態におけるロボットシステム100は、図1に示すロボットシステム100にセンサ部14を追加したことを除いては、図1のロボットシステム100と同様の構成を有する。したがって、ここでは構成の異なる部分を中心に説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
In the third embodiment, in the first and second embodiments described above, the one
FIG. 19 is a diagram illustrating a configuration example of the
The
センサ部14は、センサ部11と同様にプロジェクタとカメラとを備え、対象物体31に関する3次元情報を取得し、取得した3次元情報を画像処理部210のセンサ情報取得部211に出力する。センサ部14は、上述した第一及び第二の実施形態における第一の位置姿勢で配置されている。
画像処理部20は、第一の位置姿勢にあるセンサ部14で取得した二次元画像に基づいて、対象物体31の三次元位置姿勢計測を行う。そして、画像処理部210は、その三次元位置姿勢計測結果に基づいて、オクルージョン量の算出等を行い、その結果を用いてセンサ11の最適な位置姿勢(第二の位置姿勢)を決定する。
Similar to the
The
このように、第一の位置姿勢で三次元情報を取得するセンサ部を、第二の位置姿勢で三次元情報を取得するセンサ部とは異なるセンサ部とする。センサ部14とセンサ部11の2台を用いて対象物体31の三次元位置姿勢計測を行うことで、効率良く三次元情報を取得することができる。
なお、センサ部14は、距離の算出や推定が可能な構成であれば、カメラのみを備え二次元情報を取得するセンサ部であってもよい。すなわち、第一の位置姿勢で取得する対象物体31に関する情報は二次元情報であってもよい。この場合にも、センサ部14で取得した二次元画像を解析したデータと、モデル情報保持部212が保持しているモデル情報とを利用して対象物体31の位置姿勢を求めることができる。
As described above, the sensor unit that acquires the three-dimensional information with the first position and orientation is different from the sensor unit that acquires the three-dimensional information with the second position and orientation. By performing three-dimensional position and orientation measurement of the
The
その際、モデル情報として三次元幾何モデルを利用する場合は、三次元幾何モデルの辺である線と、上記に次元画像から抽出したエッジ成分との対応付けを行うことにより対象物体31の位置姿勢を求めればよい。例えば、二次元画像に三次元幾何モデルが当てはまるように、対象物体31の位置姿勢の概略値を反復演算によって繰り返し補正する。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体31の位置姿勢情報に基づいて対象物体31の位置姿勢を求めればよい。
At this time, when a 3D geometric model is used as model information, the position and orientation of the
When a reference image model is used as model information, a reference image that most closely matches is obtained by template matching using the reference image model as a template, and the target object is based on the position and orientation information of the
(第四の実施形態)
次に、本発明の第四の実施形態について説明する。
この第四の実施形態は、対象物体に対してオクルージョンを発生させている障害物を特定し、隠れ領域を低減するようにしたものである。
図20は、第四の実施形態におけるロボットシステム100の構成例を示す図である。
本実施形態におけるロボットシステム100は、図1に示すロボットシステム100に障害物認識部216を追加した構成を有する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
In the fourth embodiment, an obstacle causing occlusion to a target object is specified, and a hidden area is reduced.
FIG. 20 is a diagram illustrating a configuration example of the
The
障害物認識部216は、オクルージョン推定部214で推定したn個の姿勢候補でのオクルージョン量に基づいて、ピッキング候補を変更するか否かを判断する。具体的には、n姿勢分のオクルージョン量が、いずれも予め設定した閾値以上である場合に、ピッキング候補を変更すると判断する。この場合、複数の対象物体31の位置姿勢情報に基づいて、オクルージョン発生の原因(障害物)となっている対象物体31を特定し、特定対象物体31を新たなピッキング候補として設定する。
したがって、その後は、新たなピッキング候補(障害物)の三次元位置姿勢計測を行い、当該障害物のピッキングを行うことになる。
The
Therefore, after that, three-dimensional position and orientation measurement of a new picking candidate (obstacle) is performed, and the obstacle is picked.
このように、本実施形態では、オクルージョンを発生させている障害物を特定し、当初ピッキング候補として選択していた対象物体をピックアップする前に、障害物を取り除く処理を行う。これにより、当初ピッキング候補として選択していた対象物体における隠れ領域を低減することができ、当該対象物体の三次元位置姿勢計測を精度良く行うことができる。
なお、ここでは、対象物体に対してオクルージョンを発生させている障害物を取り除く場合について説明したが、当該障害物を、対象物体に関する隠れ領域が小さくなる位置に移動させてもよい。図20における障害物認識部216は特定手段の一例に相当する。
As described above, in the present embodiment, the obstacle that causes the occlusion is specified, and the process of removing the obstacle is performed before picking up the target object that was initially selected as the picking candidate. Thereby, the hidden area in the target object initially selected as the picking candidate can be reduced, and the three-dimensional position and orientation of the target object can be accurately measured.
Here, the case where the obstacle causing the occlusion to the target object is removed has been described, but the obstacle may be moved to a position where the hidden area related to the target object becomes small. The
(情報処理部20のハードウェア構成)
図21は、情報処理部20のハードウェア構成の一例である。
情報処理部20は、CPU21と、ROM22と、RAM23と、外部メモリ24と、入力部25と、表示部26と、通信I/F27と、システムバス28とを備える。
CPU21は、情報処理部20における動作を統括的に制御するものであり、システムバス28を介して、各構成部(22〜27)を制御する。
ROM22は、CPU21が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
(Hardware configuration of information processing unit 20)
FIG. 21 is an example of a hardware configuration of the
The
The
The
RAM23は、CPU21の主メモリ、ワークエリア等として機能する。すなわち、CPU21は、処理の実行に際してROM22から必要なプログラム等をRAM23にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ24には、例えば、CPU21がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。この外部メモリ14は、上記のモデル情報保持部212を備える。
The
The
入力部25は、例えばキーボードやマウス等により構成され、オペレータが入力部25を介して当該情報処理部20に指示を与えることができるようになっている。
表示部26は、液晶ディスプレイ(LCD)等のモニタで構成される。
通信I/F27は、外部装置と通信するためのインターフェースである。
システムバス28は、CPU21、ROM22、RAM23、外部メモリ24、入力部25、表示部26及び通信I/F27を通信可能に接続する。
上述した第一から第四の実施形態における情報処理部20の各部の機能は、CPU21がROM22もしくは外部メモリ24に記憶されたプログラムを実行することで実現される。
The
The
The communication I /
The
The function of each unit of the
(変形例)
上記各実施形態においては、センサ部11を、プロジェクタ(投影手段)111とカメラ(撮像手段)112とを有するセンサとする場合について説明したが、三角測量の原理を用いて対象物体31に関する三次元情報を取得可能な構成であればよく、例えば、視野の少なくとも一部が重複する複数のカメラ(撮像手段)を有するセンサ部であってもよい。この場合にも、複数のカメラの視差の影響により発生するオクルージョンを考慮してセンサ部の位置姿勢を決定することで、適切な三次元計測が可能となる。
(Modification)
In each of the above embodiments, the case where the
また、上記各実施形態においては、センサ部11の位置姿勢を変更する手段としてロボット10を用いる場合について説明したが、位置姿勢変更手段はロボット10に限らない。例えば、直動ステージと回転ステージとを組み合わせた機構部にセンサ部11を搭載し、ステージの制御によって位置姿勢を変更してもよい。このように、対象物体に対して作業を行うロボット10とは別に,位置姿勢変更手段を設けてもよい。
さらに、上記各実施形態においては、センサ部11で撮影した画像を画像処理部210で処理する場合について説明したが、センサ部11内に画像処理機構を持たせて画像処理した結果を出力するようにしてもよい。
In each of the above embodiments, the case where the
Further, in each of the embodiments described above, the case where the image captured by the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
10…ロボット、11…センサ部、111…プロジェクタ、112…カメラ、12…位置姿勢変更機構、13…ハンド、20…情報処理部、210…画像処理部、211…センサ情報取得部、212…モデル情報保持部、213…三次元位置姿勢計測部、214…オクルージョン推定部、215…センサ位置姿勢決定部、216…障害物認識部、220…ロボットコントローラ部、221…ロボット作業指示部、222…ロボット制御部、30…被計測対象物、31…対象物体、32…パレット
DESCRIPTION OF
Claims (16)
前記第一の位置姿勢で前記センサ手段により取得された二次元情報もしくは三次元情報に基づいて、複数の視点から前記対象物体を見たときの、当該対象物体が遮蔽される隠れ領域をそれぞれ算出する算出手段と、
前記算出手段で算出した隠れ領域に基づいて、前記対象物体の位置姿勢を計測するための三次元情報を取得可能なセンサ手段の位置姿勢として、前記第一の位置姿勢とは異なる第二の位置姿勢を決定する決定手段と、を備えることを特徴とする情報処理装置。 Sensor means for acquiring two-dimensional information or three-dimensional information about the target object in the first position and orientation;
Based on two-dimensional information or three-dimensional information acquired by the sensor means at the first position and orientation, a hidden area where the target object is shielded when the target object is viewed from a plurality of viewpoints is calculated. Calculating means for
A second position different from the first position and orientation as the position and orientation of the sensor means capable of acquiring three-dimensional information for measuring the position and orientation of the target object based on the hidden area calculated by the calculation means An information processing apparatus comprising: a determination unit that determines a posture.
前記算出手段で算出した隠れ領域が最小となる前記視点の位置情報に基づいて、前記センサ手段の第二の位置姿勢を決定することを特徴とする請求項1に記載の情報処理装置。 The determining means includes
The information processing apparatus according to claim 1, wherein the second position and orientation of the sensor unit is determined based on the position information of the viewpoint that minimizes the hidden area calculated by the calculation unit.
前記算出手段で算出した前記対象物体の特徴部分に関する隠れ領域が最小となる前記視点の位置情報に基づいて、前記センサ手段の第二の位置姿勢を決定することを特徴とする請求項1または2に記載の情報処理装置。 The determining means includes
3. The second position and orientation of the sensor means is determined based on the position information of the viewpoint at which the hidden area relating to the characteristic part of the target object calculated by the calculation means is minimized. The information processing apparatus described in 1.
前記第二の位置姿勢を有する前記センサ手段で取得した三次元情報を、前記算出手段による隠れ領域の算出に用い、前記決定手段による前記第二の位置姿勢の再決定を行う処理を、既定の条件を満足するまで繰り返す繰り返し手段と、をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。 Moving means for moving the sensor means to the second position and orientation determined by the determining means;
Using the three-dimensional information acquired by the sensor means having the second position and orientation for the calculation of the hidden area by the calculation means, a process for re-determining the second position and orientation by the determination means The information processing apparatus according to claim 1, further comprising: a repeating unit that repeats until the condition is satisfied.
前記算出手段で算出した隠れ領域の大きさが閾値を上回っているとき、前記特定手段で特定した障害物を、前記隠れ領域の大きさが小さくなる位置に移動する第二の移動手段と、を備えることを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。 Based on the two-dimensional information or three-dimensional information acquired by the sensor means, a specifying means for specifying an obstacle causing a hidden area with respect to the target object;
A second moving means for moving the obstacle specified by the specifying means to a position where the size of the hidden area is reduced when the size of the hidden area calculated by the calculating means exceeds a threshold; The information processing apparatus according to claim 1, further comprising: an information processing apparatus according to claim 1.
パターンを投影する投影手段と、
前記投影手段が投影したパターンを異なる視点から撮像する撮像手段と、を備え、
三角測量の原理で前記対象物体に関する三次元情報を取得することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。 The sensor means includes
Projection means for projecting a pattern;
Imaging means for imaging the pattern projected by the projection means from different viewpoints,
The information processing apparatus according to claim 1, wherein three-dimensional information related to the target object is acquired based on a triangulation principle.
視野の少なくとも一部が重複する複数の撮像手段を備え、
三角測量の原理で前記対象物体に関する三次元情報を取得することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。 The sensor means includes
Comprising a plurality of imaging means overlapping at least part of the field of view;
The information processing apparatus according to claim 1, wherein three-dimensional information related to the target object is acquired based on a triangulation principle.
前記計測手段で計測した前記対象物体の位置姿勢に基づいて、前記ロボットの前記対象物体に対する作業を制御する制御手段と、をさらに備えることを特徴とする請求項1〜12のいずれか1項に記載の情報処理装置。 Measuring means for measuring the position and orientation of the target object based on the three-dimensional information acquired by the sensor means having the second position and orientation;
The control unit according to any one of claims 1 to 12, further comprising: a control unit that controls an operation of the robot on the target object based on the position and orientation of the target object measured by the measurement unit. The information processing apparatus described.
前記第一の位置姿勢で前記センサ手段により取得された二次元情報もしくは三次元情報に基づいて、複数の視点から前記対象物体を見たときの、当該対象物体が遮蔽される隠れ領域をそれぞれ算出するステップと、
算出した隠れ領域に基づいて、前記対象物体の位置姿勢を計測するための三次元情報を取得可能なセンサ手段の位置姿勢として、前記第一の位置姿勢とは異なる第二の位置姿勢を決定するステップと、を含むことを特徴とする情報処理方法。 Acquiring two-dimensional information or three-dimensional information about the target object by the sensor means at the first position and orientation;
Based on two-dimensional information or three-dimensional information acquired by the sensor means at the first position and orientation, a hidden area where the target object is shielded when the target object is viewed from a plurality of viewpoints is calculated. And steps to
Based on the calculated hidden area, a second position / posture different from the first position / posture is determined as the position / posture of the sensor means capable of acquiring three-dimensional information for measuring the position / posture of the target object. And an information processing method comprising: steps.
前記請求項1〜13のいずれか1項に記載の情報処理装置と、を備えることを特徴とするロボットシステム。 A robot that performs work on the target object;
A robot system comprising: the information processing apparatus according to any one of claims 1 to 13.
The program for functioning a computer as each means of the information processing apparatus of any one of the said Claims 1-13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014237195A JP2016099257A (en) | 2014-11-21 | 2014-11-21 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014237195A JP2016099257A (en) | 2014-11-21 | 2014-11-21 | Information processing device and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016099257A true JP2016099257A (en) | 2016-05-30 |
Family
ID=56076890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014237195A Pending JP2016099257A (en) | 2014-11-21 | 2014-11-21 | Information processing device and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016099257A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018034251A1 (en) * | 2016-08-14 | 2018-02-22 | ライフロボティクス株式会社 | Dishwashing system, and robot device |
JP2018081048A (en) * | 2016-11-18 | 2018-05-24 | オムロン株式会社 | Three-dimensional shape measurement device |
JP2018144155A (en) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device |
EP3392002A1 (en) | 2017-04-10 | 2018-10-24 | Canon Kabushiki Kaisha | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method |
JP2019089157A (en) * | 2017-11-14 | 2019-06-13 | オムロン株式会社 | Holding method, holding system, and program |
US10434652B2 (en) | 2017-05-19 | 2019-10-08 | Fanuc Corporation | Workpiece picking system |
JP2019185664A (en) * | 2018-04-17 | 2019-10-24 | トヨタ自動車株式会社 | Control device, object detection system, object detection method, and program |
WO2019230320A1 (en) | 2018-05-29 | 2019-12-05 | オムロン株式会社 | Vision sensor system, control method, and program |
JP2020069572A (en) * | 2018-10-31 | 2020-05-07 | ファナック株式会社 | Robot system |
CN111177869A (en) * | 2020-01-02 | 2020-05-19 | 北京百度网讯科技有限公司 | Method, device and equipment for determining sensor layout scheme |
JP6723628B1 (en) * | 2020-02-13 | 2020-07-15 | 株式会社Mujin | Method and system for determining occlusion in the field of view of a camera |
US10778902B2 (en) | 2018-06-06 | 2020-09-15 | Toyota Jidosha Kabushiki Kaisha | Sensor control device, object search system, object search method, and program |
JP2020146823A (en) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | Component picking system of robot |
JP2020146805A (en) * | 2019-03-14 | 2020-09-17 | 上銀科技股▲分▼有限公司 | System for removing a plurality of objects stacked at random |
WO2022014171A1 (en) * | 2020-07-13 | 2022-01-20 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2022080036A1 (en) * | 2020-10-16 | 2022-04-21 | オムロン株式会社 | Control device, robot, control method, and program |
KR20220089463A (en) * | 2020-12-21 | 2022-06-28 | 주식회사 노비텍 | Vision analysis apparatus for picking robot |
US11393063B2 (en) | 2019-03-28 | 2022-07-19 | Seiko Epson Corporation | Object detecting method, object detecting device, and robot system |
CN114901441A (en) * | 2020-01-23 | 2022-08-12 | 欧姆龙株式会社 | Robot system control device, robot system control method, computer control program, and robot system |
JP2023522179A (en) * | 2020-04-14 | 2023-05-29 | リアルタイム ロボティクス, インコーポレーテッド | Configuring the robot operating environment, including sensor placement |
WO2023170814A1 (en) * | 2022-03-09 | 2023-09-14 | ヤマハ発動機株式会社 | Operation device for three-dimensional measurement, three-dimensional measurement program, recording medium, three-dimensional measurement device, and operation method for three-dimensional measurement |
JP7448884B2 (en) | 2019-05-15 | 2024-03-13 | オムロン株式会社 | Measurement system, measurement device, measurement method, and measurement program |
US11964393B2 (en) | 2018-03-21 | 2024-04-23 | Realtime Robotics, Inc. | Motion planning of a robot for various environments and tasks and improved operation of same |
US11970161B2 (en) | 2018-01-12 | 2024-04-30 | Duke University | Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects |
-
2014
- 2014-11-21 JP JP2014237195A patent/JP2016099257A/en active Pending
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018034251A1 (en) * | 2016-08-14 | 2019-06-20 | ライフロボティクス株式会社 | Dishwashing system and robot device |
US10905307B2 (en) | 2016-08-14 | 2021-02-02 | Life Robotics Inc. | Dishwashing system and robot device |
WO2018034251A1 (en) * | 2016-08-14 | 2018-02-22 | ライフロボティクス株式会社 | Dishwashing system, and robot device |
JP2018081048A (en) * | 2016-11-18 | 2018-05-24 | オムロン株式会社 | Three-dimensional shape measurement device |
JP2018144155A (en) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device |
EP3392002A1 (en) | 2017-04-10 | 2018-10-24 | Canon Kabushiki Kaisha | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method |
US10894324B2 (en) | 2017-04-10 | 2021-01-19 | Canon Kabushiki Kaisha | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method |
US10434652B2 (en) | 2017-05-19 | 2019-10-08 | Fanuc Corporation | Workpiece picking system |
JP2019089157A (en) * | 2017-11-14 | 2019-06-13 | オムロン株式会社 | Holding method, holding system, and program |
US11970161B2 (en) | 2018-01-12 | 2024-04-30 | Duke University | Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects |
US11964393B2 (en) | 2018-03-21 | 2024-04-23 | Realtime Robotics, Inc. | Motion planning of a robot for various environments and tasks and improved operation of same |
JP2019185664A (en) * | 2018-04-17 | 2019-10-24 | トヨタ自動車株式会社 | Control device, object detection system, object detection method, and program |
CN110390692A (en) * | 2018-04-17 | 2019-10-29 | 丰田自动车株式会社 | Control device, object detecting system, object detecting method and computer-readable medium |
US10957067B2 (en) | 2018-04-17 | 2021-03-23 | Toyota Jidosha Kabushiki Kaisha | Control apparatus, object detection system, object detection method and program |
WO2019230320A1 (en) | 2018-05-29 | 2019-12-05 | オムロン株式会社 | Vision sensor system, control method, and program |
US11745352B2 (en) | 2018-05-29 | 2023-09-05 | Omron Corporation | Vision sensor system, control method, and non-transitory computer readable storage medium |
EP3805695A4 (en) * | 2018-05-29 | 2022-03-02 | OMRON Corporation | Vision sensor system, control method, and program |
US10778902B2 (en) | 2018-06-06 | 2020-09-15 | Toyota Jidosha Kabushiki Kaisha | Sensor control device, object search system, object search method, and program |
JP2020069572A (en) * | 2018-10-31 | 2020-05-07 | ファナック株式会社 | Robot system |
US11126859B2 (en) | 2018-10-31 | 2021-09-21 | Fanuc Corporation | Robot system |
JP2020146805A (en) * | 2019-03-14 | 2020-09-17 | 上銀科技股▲分▼有限公司 | System for removing a plurality of objects stacked at random |
JP2020146823A (en) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | Component picking system of robot |
JP7275688B2 (en) | 2019-03-15 | 2023-05-18 | 株式会社デンソーウェーブ | Robot parts picking system |
US11393063B2 (en) | 2019-03-28 | 2022-07-19 | Seiko Epson Corporation | Object detecting method, object detecting device, and robot system |
JP7448884B2 (en) | 2019-05-15 | 2024-03-13 | オムロン株式会社 | Measurement system, measurement device, measurement method, and measurement program |
CN111177869A (en) * | 2020-01-02 | 2020-05-19 | 北京百度网讯科技有限公司 | Method, device and equipment for determining sensor layout scheme |
CN111177869B (en) * | 2020-01-02 | 2023-09-01 | 北京百度网讯科技有限公司 | Method, device and equipment for determining sensor layout scheme |
CN114901441A (en) * | 2020-01-23 | 2022-08-12 | 欧姆龙株式会社 | Robot system control device, robot system control method, computer control program, and robot system |
US11924559B2 (en) | 2020-02-13 | 2024-03-05 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
JP2021126761A (en) * | 2020-02-13 | 2021-09-02 | 株式会社Mujin | Method and system for determining occlusion within camera field of view |
US11006039B1 (en) | 2020-02-13 | 2021-05-11 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
JP6723628B1 (en) * | 2020-02-13 | 2020-07-15 | 株式会社Mujin | Method and system for determining occlusion in the field of view of a camera |
JP2023522179A (en) * | 2020-04-14 | 2023-05-29 | リアルタイム ロボティクス, インコーポレーテッド | Configuring the robot operating environment, including sensor placement |
JP7450297B2 (en) | 2020-04-14 | 2024-03-15 | リアルタイム ロボティクス, インコーポレーテッド | Configuration of robot operating environment including sensor placement |
WO2022014171A1 (en) * | 2020-07-13 | 2022-01-20 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2022080036A1 (en) * | 2020-10-16 | 2022-04-21 | オムロン株式会社 | Control device, robot, control method, and program |
KR102432370B1 (en) * | 2020-12-21 | 2022-08-16 | 주식회사 노비텍 | Vision analysis apparatus for picking robot |
KR20220089463A (en) * | 2020-12-21 | 2022-06-28 | 주식회사 노비텍 | Vision analysis apparatus for picking robot |
WO2023170814A1 (en) * | 2022-03-09 | 2023-09-14 | ヤマハ発動機株式会社 | Operation device for three-dimensional measurement, three-dimensional measurement program, recording medium, three-dimensional measurement device, and operation method for three-dimensional measurement |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016099257A (en) | Information processing device and information processing method | |
CN111482959B (en) | Automatic hand-eye calibration system and method of robot motion vision system | |
JP5854815B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6021533B2 (en) | Information processing system, apparatus, method, and program | |
JP6000579B2 (en) | Information processing apparatus and information processing method | |
JP5975685B2 (en) | Information processing apparatus and information processing method | |
JP5977544B2 (en) | Information processing apparatus and information processing method | |
JP5778311B1 (en) | Picking apparatus and picking method | |
JP5567908B2 (en) | Three-dimensional measuring apparatus, measuring method and program | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
US9679385B2 (en) | Three-dimensional measurement apparatus and robot system | |
JP6317618B2 (en) | Information processing apparatus and method, measuring apparatus, and working apparatus | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
JP2016000442A (en) | Robot, robotic system, and control device | |
US20210283782A1 (en) | Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium | |
JP2016170050A (en) | Position attitude measurement device, position attitude measurement method and computer program | |
KR20110095700A (en) | Industrial robot control method for workpiece object pickup | |
JP5698815B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6040264B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP7180783B2 (en) | CALIBRATION METHOD FOR COMPUTER VISION SYSTEM AND 3D REFERENCE OBJECT USED FOR CALIBRATION METHOD | |
WO2023013740A1 (en) | Robot control device, robot control system, and robot control method | |
US20230123629A1 (en) | 3d computer-vision system with variable spatial resolution | |
US20240003675A1 (en) | Measurement system, measurement device, measurement method, and measurement program | |
US20230030852A1 (en) | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system | |
JP7450857B2 (en) | Measurement parameter optimization method and device, and computer control program |