JP2008049459A - System, method and program for controlling manipulator - Google Patents
System, method and program for controlling manipulator Download PDFInfo
- Publication number
- JP2008049459A JP2008049459A JP2006230483A JP2006230483A JP2008049459A JP 2008049459 A JP2008049459 A JP 2008049459A JP 2006230483 A JP2006230483 A JP 2006230483A JP 2006230483 A JP2006230483 A JP 2006230483A JP 2008049459 A JP2008049459 A JP 2008049459A
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- manipulator
- shape
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、把持対象物をマニピュレータで把持および移動するためのマニピュレータ制御システム、マニピュレータ制御方法およびプログラムに関する。 The present invention relates to a manipulator control system, a manipulator control method, and a program for gripping and moving a gripping object with a manipulator.
人が直接手で掴んで作業を行えないような物体を人の代わりに把持して移動や操作を行うために、マニピュレータが利用されている。 Manipulators are used to hold an object that cannot be operated by being directly grasped by a hand, instead of the person, to move or operate the object.
マニピュレータを用いた作業を行う場合、把持対象物は、特定されていることが多く、その物体形状、重量、把持位置、必要把持力、物体設置位置などの情報は既知であるものとして扱われることが多い。 When working with a manipulator, the object to be grasped is often specified, and information such as the object shape, weight, grasping position, necessary grasping force, and object installation position is treated as known. There are many.
把持対象物の設置位置や形状が不明な場合、画像処理システムあるいはそれに代わる計測システムと組み合わせて対象物の設置位置や形状を計測することで、把持位置や姿勢を修正することが可能である。 When the installation position and shape of the gripping object are unknown, the gripping position and posture can be corrected by measuring the installation position and shape of the target object in combination with an image processing system or a measurement system that replaces it.
従来、把持対象物の重量が不明確な場合にマニピュレータの把持力を適切に調整する方法として、例えば把持物体を指内で滑らせることで押付け力と摩擦力より摩擦係数を推定して適切な把持力を決定する方法がある(例えば特許文献1参照)。 Conventionally, as a method of appropriately adjusting the gripping force of the manipulator when the weight of the gripping object is unclear, for example, the friction coefficient is estimated from the pressing force and the frictional force by sliding the gripping object within the finger. There is a method for determining the gripping force (see, for example, Patent Document 1).
また、マニピュレータの指先に貼り付けた曲面弾性体と把持物体との固着状態から物体の滑り量を測定して把持力の調整に活用する方法もある(例えば特許文献2参照)。
上述した従来のマニピュレータの物体把持力調整方法の場合、把持対象物の固有情報に基づいてマニピュレータ把持力調整を行うため、一般的に既知の対象物に対してしか把持作業が行えない。 In the case of the above-described conventional manipulator object gripping force adjustment method, since the manipulator gripping force adjustment is performed based on the unique information of the gripping object, it is generally possible to perform a gripping operation only on a known object.
これでは、汎用性がなく、様々な物体の把持作業を想定したとき、それぞれの対象物固有の情報を予め設定しておくことは困難であり、マニピュレータが未知の対象物に対しても作業を行えるように柔軟に対応できるようにすることが望ましい。 In this case, it is difficult to set information specific to each object in advance when it is assumed that there is no versatility and gripping work of various objects, and the manipulator can also work on an unknown object. It is desirable to be able to respond flexibly so that it can be done.
そのためには、把持対象物の形状のみならず重量やそれに適した把持位置、把持力などを自動的に判別できるようにする必要がある。
物体の外形(形状)は、カメラによるステレオ視の技術やレーザスキャン計測技術などの従来技術により3次元的に測定することが可能である。
For this purpose, it is necessary to automatically determine not only the shape of the object to be grasped but also the weight, the grasping position suitable for it, the grasping force, and the like.
The outer shape (shape) of an object can be measured three-dimensionally by conventional techniques such as a stereo viewing technique using a camera and a laser scan measurement technique.
しかしながら、形状計測を行うことで未知の形状の対象物を扱う場合、対象物の重量までは分からないため、適切な把持力を決定することができないという問題があった。 However, when an object having an unknown shape is handled by performing shape measurement, there is a problem in that an appropriate gripping force cannot be determined because the weight of the object is unknown.
物体の把持作業においてマニピュレータが過大な把持力で物体を把持すると、対象物を握りつぶしてしまうことになる。また、この逆に把持力が不足した場合は、対象物が滑り落ちたりする恐れがある。このため、把持対象物の重量に応じた適切な把持力を決定することは重要である。 If the manipulator grips an object with an excessive gripping force during the gripping operation of the object, the object will be crushed. On the other hand, if the gripping force is insufficient, the object may slide down. For this reason, it is important to determine an appropriate gripping force according to the weight of the gripping object.
上述した先行技術に見られる手法は、重量が未知の把持対象物に対しても重量を推定して把持力を適切に調整することを可能にしているものの、物体把持後の指内での滑りを検出して重量推定を行っているため、把持対象物に接触したときの初期の推定値に大きな誤差があった場合は、把持力不足によって把持対象物を滑り落としたり、逆に把持力過多のため対象物を握りつぶしたりしてしまう恐れがある。 Although the techniques found in the prior art described above enable the weight to be estimated and the gripping force to be adjusted appropriately even for a gripping target whose weight is unknown, slipping within the finger after gripping the object is possible. Therefore, if there is a large error in the initial estimated value when it comes into contact with the gripping object, the gripping object slips down due to insufficient gripping force, or conversely excessive gripping force. For this reason, the object may be crushed.
本発明はこのような課題を解決するためになされたもので、重量が未知の把持対象物をマニピュレータが把持部で把持する際に、マニピュレータの把持部から把持対象物が滑り落ちることなく、かつ把持対象物がもろい物でも破壊せずに確実に把持・移動することができるマニピュレータ制御システム、マニピュレータ制御方法およびプログラムを提供することを目的とする。 The present invention has been made to solve such problems. When a manipulator grips a gripping object with an unknown weight with the gripping part, the gripping object does not slide down from the gripping part of the manipulator and is gripped. An object of the present invention is to provide a manipulator control system, a manipulator control method, and a program capable of reliably grasping and moving a fragile object without breaking it.
上記した課題を解決するために、本発明のマニピュレータ制御システムは、把持対象物を把持・移動するための把持部を有するマニピュレータと、前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測する成分分析器と、前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定する形状計測センサと、前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とから前記把持対象物の体積を算出する体積算出部と、既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部とを具備することを特徴とする。 In order to solve the above-described problems, a manipulator control system according to the present invention includes a manipulator having a gripping unit for gripping and moving a gripping target, and the gripping target that is provided in the gripping unit and approaches the gripping target A component analyzer that emits light or radiation to measure the material thereof in a non-contact manner, and a three-dimensional shape that is provided in the gripping unit and radiates light or radiation to the gripping object that is approached, without contact. A shape measuring sensor to measure, a volume calculating unit for calculating the volume of the gripping object from the material of the gripping object measured by the component analyzer and the three-dimensional shape measured by the shape measuring sensor, and a known A database in which object information including the shape of the gripping object, substance density information, gripping position, and gripping force is accumulated, and the volume of the gripping object calculated by the volume calculation unit, A weight calculation unit that calculates the weight of the gripping object from the density information of the substance read from the database using the material of the gripping object measured by the component analyzer as a key, and the weight calculation unit that calculates the weight A gripping force calculation unit that calculates a gripping force of the gripping target from the weight of the gripping target, and a control unit that operates the manipulator with the gripping force calculated by the gripping force calculation unit. To do.
本発明のマニピュレータ制御方法は、把持対象物を把持・移動するための把持部を有するマニピュレータを制御して把持対象物を把持・移動するマニピュレータ制御方法において、前記把持部に設けられた成分分析器が、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測するステップと、前記把持部に設けられた形状計測センサが、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定するステップと、前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とからコンピュータが前記把持対象物の体積を算出するステップと、計算した前記把持対象物の体積と、計測した前記把持対象物の材質をキーにデータベースから読み出した物質の密度情報とから前記コンピュータが前記把持対象物の重量を算出するステップと、算出した前記把持対象物の重量から前記コンピュータが、前記把持対象物を前記マニピュレータが把持するための把持力を算出するステップと、算出した把持力にて前記コンピュータが前記マニピュレータを動作させるステップとを有することを特徴とする。 The manipulator control method of the present invention is a manipulator control method for gripping / moving a gripping object by controlling a manipulator having a gripping part for gripping / moving the gripping object, and a component analyzer provided in the gripping part. However, the step of emitting light or radiation to the approaching gripping object and measuring the material thereof in a non-contact manner, and the shape measurement sensor provided in the gripping part is applied to the approaching gripping object. The computer grasps the three-dimensional shape by emitting light or radiation without contact, and the grasping material measured by the component analyzer and the three-dimensional shape measured by the shape measurement sensor. The step of calculating the volume of the object, the calculated volume of the gripping object, and the measured material of the gripping object from the database The computer calculates the weight of the grasped object from the density information of the protruding substance, and the computer grasps the grasped object for the manipulator to grasp the grasped object from the calculated weight of the grasped object. A step of calculating a force; and a step of causing the computer to operate the manipulator with the calculated gripping force.
本発明のプログラムは、把持対象物を把持・移動するための把持部を有するマニピュレータをコンピュータが制御するためのプログラムにおいて、前記コンピュータを、前記把持部に設けられた成分分析器が前記把持対象物に対して光または放射線を放射して非接触で計測した材質と、前記把持部に設けられた形状計測センサが、前記把持対象物に対して光または放射線を放射して非接触で測定した立体形状とから前記把持対象物の体積を算出する体積算出部と、既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された前記把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部として機能させることを特徴とする。 The program of the present invention is a program for a computer to control a manipulator having a gripping part for gripping / moving a gripping object, wherein the component analyzer provided in the gripping part is the gripping object. The material measured by non-contact by emitting light or radiation to the object and the three-dimensional measurement measured by the shape measuring sensor provided on the gripping unit without emitting light or radiation to the gripping object A volume calculation unit that calculates the volume of the grasped object from the shape, a database that accumulates object information including the shape of the known grasped object, the density information of the substance, the grasping position, and the grasping force, and the volume calculating unit. The density information of the substance read from the database using the calculated volume of the grasped object and the material of the grasped object measured by the component analyzer as keys. A weight calculation unit that calculates the weight of the gripping object from the weight, a gripping force calculation unit that calculates a gripping force of the gripping object from the weight of the gripping object calculated by the weight calculation unit, and the gripping force It is made to function as a control part which operates the said manipulator with the gripping force calculated by the calculation part.
すなわち、本発明では、重量が未知の把持対象物をマニピュレータで把持する際に、把持対象物の形状と質量を光または放射線を放射して非接触で計測し、その計測結果と質量から把持対象物の重量を計算により求め、把持対象物を把持するための適正な把持力を決定してから、マニピュレータで把持対象物を把持する。つまり重量が未知の把持対象物に対して事前にマニピュレータの把持力を適切に調整する。 That is, in the present invention, when a grasping object with an unknown weight is grasped with a manipulator, the shape and mass of the grasping object are measured in a non-contact manner by emitting light or radiation, and the grasping object is determined from the measurement result and the mass. The weight of the object is obtained by calculation, and an appropriate gripping force for gripping the gripping object is determined, and then the gripping object is gripped by the manipulator. That is, the gripping force of the manipulator is appropriately adjusted in advance with respect to the gripping target whose weight is unknown.
本発明によれば、重量が未知の把持対象物をマニピュレータが把持部で把持する際に、マニピュレータの把持部から把持対象物が滑り落ちることなく、かつ把持対象物がもろい物でも破壊せずに確実に把持・移動することができる。 According to the present invention, when a manipulator grips a gripping object whose weight is unknown, the gripping object does not slide down from the gripping part of the manipulator, and even if the gripping object is fragile, it can be reliably destroyed. Can be gripped and moved.
以下、本発明の実施の形態を図面を参照して詳細に説明する。
(第1実施形態)
まず、図1を参照してマニピュレータ制御システムの一つの実施形態であるマニピュレータ作業支援システムについて説明する。図1は第1実施形態のマニピュレータ作業支援システムの構成を示す図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a manipulator work support system that is one embodiment of a manipulator control system will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration of a manipulator work support system according to the first embodiment.
この第1実施形態のマニピュレータ作業支援システムは、マニピュレータ11と、このマニピュレータ11と通信ケーブル20を介して接続されたマニピュレータコントローラ30と、このマニピュレータコントローラ30とLAN21などのネットワークを介して接続された複数のコンピュータ(制御用コンピュータ41、形状計測処理用コンピュータ42、物体情報データベース用コンピュータ43、状態表示コンピュータ44)とから構成されている。
The manipulator work support system according to the first embodiment includes a manipulator 11, a manipulator controller 30 connected to the manipulator 11 via a
以下、コンピュータを「PC」と称す。各PCには、CPU、ROM、RAMなどのメモリ、ハードディスク装置などの記憶装置、マウス、キーボードなどの入力装置、ディスプレイ、外部インターフェースなどの出力装置が備えられている。 Hereinafter, the computer is referred to as “PC”. Each PC includes a CPU, a ROM, a memory such as a RAM, a storage device such as a hard disk device, an input device such as a mouse and a keyboard, and an output device such as a display and an external interface.
ハードディスク装置にはCPUを動作させるためのオペレーティングシステム(以下「OS」と称す)および制御プログラムなどが記憶されている。マウス、キーボードなどは、オペレータによる各種指示操作を受付け、その指示をCPUへ入力する。 The hard disk device stores an operating system (hereinafter referred to as “OS”) for operating the CPU, a control program, and the like. The mouse, keyboard, etc. accept various instruction operations by the operator and input the instructions to the CPU.
マニピュレータ11は、複数の関節11a、11b、11cと、腕部11d,11eと、関節11a、11b、11cを各方向へ駆動する駆動部11fと、腕部11eの先端に設けられた把持部10とを有している。
The manipulator 11 includes a plurality of
把持部10の先端には、グリッパ部12が設けられている。グリッパ部12は、把持対象物A(以下「対象物A」と称す。)を把持するために指状の先端部12aを有しており、2つの先端部12aを開閉動作することにより対象物Aを把持または離すことができる。グリッパ部12には、先端部12aの把持力を計測する把持力計測センサ(図示せず)が設けられている。
A
把持部10には、グリッパ部12の先端、つまり手先に加わる外力(力とモーメント)を計測する6軸力センサ15が備えられている。この6軸力センサ15の上には、グリッパ部12の先端の方向に向けて成分分析装置13と形状計測センサ14とが設けられている。
The
成分分析装置13としては、例えば蛍光X線分析装置や赤外分光光度計測装置などの、放射線または光学系を用い、対象物Aに触れることなく(非接触で)、対象物Aの成分を分析してその構成を同定できる装置を利用する。
As the
蛍光X線分析装置は、X線管球から発生されたX線を測定対象物Aに照射し、その測定対象物Aから放射された蛍光X線を受けて分析する装置である。この測定対象物Aから放射される蛍光X線のエネルギーは、元素に固有のエネルギー値を持っているため、蛍光X線を測定することで測定対象物に含まれている元素の種類を特定することが可能である。 The X-ray fluorescence analyzer is an apparatus that irradiates a measurement object A with X-rays generated from an X-ray tube and receives and analyzes the fluorescent X-rays emitted from the measurement object A. Since the energy of the fluorescent X-ray emitted from the measurement object A has an energy value specific to the element, the type of the element contained in the measurement object is specified by measuring the fluorescent X-ray. It is possible.
赤外分光光度計測装置は、対象物に赤外光を照射して、対象物からの透過光、反射光、あるいは散乱光を分光し、それぞれ透過スペクトル、反射スペクトルあるいは拡散スペクトルを得ることにより、対象物の物性情報を得る手法である。得られたスペクトルはその物質特有のものであり、これにより構成材料の同定を行うことが可能である。 Infrared spectrophotometry device irradiates an object with infrared light, and separates transmitted light, reflected light, or scattered light from the object, and obtains a transmission spectrum, a reflection spectrum, or a diffusion spectrum, respectively. This is a method for obtaining physical property information of an object. The obtained spectrum is peculiar to the substance, so that the constituent material can be identified.
形状計測センサ14は、例えば2つのCCDカメラを用いたステレオ視の技術またはレーザスキャンの技術を利用して3次元形状(立体形状)の認識を行う。レーザスキャンを行う場合の装置は、測定対象物に対してレーザ光を照射してから、そのレーザ光が測定対象物に反射して戻るまでの時間差により対象物Aとの距離を計測する機構を、直接またはミラーの反射を用いて2次元的に走査することで対象物の3次元形状を測定する。ここではCCDカメラを使用するものとして説明する。
The
なお、成分分析装置13、形状計測センサ14の種類は、ここに例示したものだけに限定されるものではなく、同じ目的であれば他の手段を用いてもよい。また、外力計測用のセンサとして6軸力センサ15を用いたが、これに限らずロードセルを用いるなど、作業・操作内容に応じて代替して使用してもよい。
Note that the types of the
マニピュレータコントローラ30には、CPU31、メモリ32、制御用インターフェース34、通信インターフェース35などが備えられている。
The manipulator controller 30 includes a
マニピュレータコントローラ30のメモリ32には、各関節11a、11b、11cを駆動するモータを制御するためのモータドライバや制御ソフトウェア等が収容されている。
The
制御用インターフェース34は、マニピュレータコントローラ30に通信ケーブル20を接続するためのインターフェースであり、マニピュレータ11を動作させるための制御信号を通信ケーブル20を通じてマニピュレータ11へ送信する。
The
制御用インターフェース34は、マニピュレータ11の成分分析装置13および形状計測センサ14により測定された測定データを通信ケーブル20を通じて受信し、CPU31へ渡す。
The
通信インターフェース35は、LAN接続ボードなどであり、マニピュレータコントローラ30をLAN21に接続する。通信インターフェース35は、制御用PC41からの動作指令を受信してCPU31に渡す。
The
CPU31は、通信インターフェース35から渡された動作指令をマニピュレータ11用の制御信号にして制御用インターフェース34を通じてマニピュレータ11へ送信する。
The
また、CPU31は、制御用インターフェース34により受信された測定データを通信インターフェース35からLAN21を通じて各PC(制御用PC41、形状計測処理用PC42、物体情報データベース用PC43、状態表示PC44)へ伝送する。
Further, the
制御用PC41は、マニピュレータ11の動作の決定とマニピュレータコントローラ30に対して各軸の動作指令を与える。制御用PC41は、決定したマニピュレータ11の動作およびマニピュレータコントローラ30に対して各軸の動作指令などをディスプレイ41aに表示する。
The
制御用PC41のCPUは、成分分析装置13により計測された対象物Aの材質と形状計測センサ14により計測された対象物Aの3次元形状(立体形状)とから対象物Aの体積を算出する体積算出部として機能する。
The CPU of the
制御用PC41のCPUは、体積算出部により計算された対象物Aの体積と、成分分析装置13により計測された対象物Aの材質をキーに物体情報データベース用PC43の物体情報データベース43bから読み出した物質の密度情報とから対象物Aの重量を算出する重量算出部として機能する。
The CPU of the
制御用PC41のCPUは、重量算出部により算出された把持対象物の重量からマニピュレータ11が対象物Aを把持するための把持力を算出する把持力算出部として機能する。
The CPU of the
制御用PC41のCPUは、把持力算出部により算出された把持力にてマニピュレータ11を動作させる制御部として機能する。
The CPU of the
形状計測処理用PC42のCPUは、手先(グリッパ部12)の形状計測センサ14から得られた対象物Aの形状計測結果の情報に基づいて対象物Aの3次元形状のデータを演算(計算)して求め、演算結果(計算結果)の3次元形状のデータをディスプレイ42aに表示する。
The CPU of the shape
物体情報データベース用PC43は、既知の把持物体固有の情報(3次元の形状データ、物質の密度情報、把持位置、把持力、重量、重心位置、把持可能位置などの物体情報)が登録(蓄積)された物体情報データベース43bを有している。
物体情報データベース43bは、一つのキーワードから関連する情報を検索可能であり、例えば計算された把持対象物の体積と、成分分析器13により計測された把持対象物の材質をキーにして物質の密度情報を読み出し可能である。
The object
The
物体情報データベース用PC43のCPUは、計測された対象物Aの形状データを検索キーとして、物体情報データベース43bから該当対象物A(物体)のデータ(特性データなど)を検索する検索部と、この検索部により検索された対象物Aのデータ(特性データなど)をディスプレイ43aに表示(出力)する出力部として機能する。
The CPU of the object
物体情報データベース用PC43のCPUは、検索部による検索の結果、対象物Aの情報が物体情報データベース43bに存在しない場合、その対象物Aを未知の物体として、計測および計算により求めた情報(形状データ、材質など)を物体情報データベース43bに追加登録する登録部として機能する。
When the information of the target A does not exist in the
物体情報データベース用PC43のCPUは、検索部による検索の結果、対象物Aの情報が物体情報データベース43bに存在しない場合、その対象物Aを未知の物体とし、未知の物体について、対象物Aの形状に類似する物体のデータ(特性データなど)を物体情報データベース43bから読み出してそのデータ(特性データなど)を対象物Aのデータとするデータ選出部として機能する。
As a result of the search by the search unit, the CPU of the object
物体情報データベース用PC43のCPUは、データ選出部により対象物Aのものとされた類似する物体の特性データを基に(キーとして)物体情報データベース43bに予め記憶された把持位置、把持力の中から適切な把持位置、把持力を決定する把持力決定部として機能する。
The CPU of the object
状態表示PC44は、形状計測センサ14により計測された対象物Aの形状を基にマニピュレータ11の把持部10が対象物Aを把持する3次元空間上の位置を求める。そして、状態表示PC44は、マニピュレータ11の姿勢やその把持部10と対象物Aとの位置姿勢関係を3次元のコンピュータグラフィック(以下「CG」と称す。)でディスプレイ44aの画面に表示する。
The state display PC 44 obtains a position in the three-dimensional space where the gripping
なお、各PC41〜44は、LAN21に接続されており、互いに情報を送受信することができる。ここでは各処理毎にPCを分けて設置する例を示したが、各PCの処理機能を一つにまとめて1台のPCに集約してもよい。
The
続いて、図2を参照してこの第1実施形態のマニピュレータ作業支援システムの動作を説明する。図2はこの第1実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。 Next, the operation of the manipulator work support system according to the first embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing the processing operation of the manipulator work support system of the first embodiment.
この第1実施形態のマニピュレータ作業支援システムの場合、制御用PC41のCPUは、把持部10の先端部12a、つまり手先のCCDカメラから得られた映像を画像処理することによって対象物Aの3次元空間上の位置(座標)を認識し、マニピュレータコントローラ30に対してマニピュレータ11を動作させるための指示を送り、まずマニピュレータ11を動作させて、その先端部12a、つまり手先を対象物Aの近傍まで移動し(図2のステップ101)、対象物Aに接近させる。なお、ステップは処理工程を意味し、以下では、ステップを「S」と称す。
In the case of the manipulator work support system according to the first embodiment, the CPU of the
このとき、対象物Aの大まかな3次元空間上の位置(座標)は、予め物体情報データベース43bに登録されているものとしても良く、手先のCCDカメラの映像に基づく画像処理によって認識しても良い。
At this time, the position (coordinates) of the object A in the rough three-dimensional space may be registered in advance in the
次に、マニピュレータ11の手先に設けた形状計測センサ14により対象物Aの3次元形状の計測が行われる(S102)。
Next, the three-dimensional shape of the object A is measured by the
形状計測センサ14では、ステレオ視による画像処理やレーザスキャン装置による計測を行う上で、手先位置固定の固定視点からでは対象物Aの一部しか計測できない恐れがある。
The
このため、制御用PC41のCPUは、対象物Aの周囲を周回するようにマニピュレータ11の先端を移動させる。この移動に伴い形状計測処理用PC42のCPUは、対象物Aの外観を計測した計測結果を合成処理することで、対象物Aの3次元形状データを得る。
For this reason, the CPU of the
次に、形状計測処理用PC42のCPUは、得られた対象物Aの3次元形状データを用いて対象物Aの体積を算出する(S103)。
Next, the CPU of the shape
このときの形状計測によって得られるデータは、3次元の位置情報を有する計測点群であるので、形状計測処理用PC42のCPUは、これらの点群を表面として構成するソリッドモデルを生成する。ソリッドモデルから体積を算出する手法は、3次元CADなどで広く使用されており、同様の手法を用いるものとする。
Since the data obtained by the shape measurement at this time is a measurement point group having three-dimensional position information, the CPU of the shape
次に、形状計測処理用PC42のCPUは、形状計測センサ14の情報に基づき手先位置と対象物Aまでの距離を計算し、手先を対象物Aに接近させる。
Next, the CPU of the shape
その後、形状計測処理用PC42のCPUは、成分分析装置により対象物Aの成分を分析する(S104)。
Thereafter, the CPU of the shape
成分分析には、まず、手先に搭載した蛍光X線分析装置にてX線を照射して対象物Aより放射される蛍光X線の強度を測定する。 In the component analysis, first, the intensity of fluorescent X-rays emitted from the object A is measured by irradiating X-rays with a fluorescent X-ray analyzer mounted on the hand.
次に、形状計測処理用PC42のCPUは、測定した蛍光X線の強度スペクトルの値から物体情報データベース43bを参照することで対象物Aの構成材料を選定し、その材料をキーワードにしてさらに物体情報データベース43bに登録されている物質の密度情報を参照することで、対象物Aの密度を算出する(S105)。
Next, the CPU of the shape
また、形状計測処理用PC42のCPUは、その物質によって構成される一般的な物体について物体情報データベース43bを参照することでその物体の摩擦係数の値も読み出す。なお、本実施形態では対象物Aは、均一の材料にて構成されているものとして扱うものとする。
Further, the CPU of the shape
次に、形状計測処理用PC42のCPUは、算出した対象物の体積と密度の情報を用いて重量=体積×密度の関係式より対象物Aの重量を算出する(S106)。
Next, the CPU of the shape
次に、形状計測処理用PC42のCPUは、算出した対象物Aの重量と、物体情報データベース43bの参照により得られた物体の摩擦係数値より、適した把持力を決定し(S107)、決定した把持力をLAN21を通じて制御用PC41へ通知する。
Next, the CPU of the shape
次に、把持力が通知された制御用PC41のCPUは、形状計測センサ14を用いて対象物Aの位置姿勢を確認しながら、グリッパ部12の先端部12aを対象物Aを把持可能位置へ移動し(S108)、先に決定した把持力になるように把持力計測センサ(図示せず)から得られる計測値で把持力を調整しながら先端部12aを閉じてゆき対象物Aを把持する(S109)。
Next, the CPU of the
最後に、対象物Aを持ち上げた後、グリッパ部12に装着している6軸力センサ15により対象物Aの正確な重量を測定し、その測定結果と計算で求めた重量とを比較して誤差分に相当する把持力を調整(修正)する(S110)。
Finally, after lifting the object A, the accurate weight of the object A is measured by the 6-
例えば、計算した重量よりも実際の重量が重ければ、把持力を増加させることでグリッパ部12の指部から対象物Aが滑り落ちることを防止する。この逆に指部に滑り触覚センサを搭載しておき、対象物Aの滑りを検出した際に把持力を増加させるといった方法も有効である。
For example, if the actual weight is heavier than the calculated weight, the object A is prevented from sliding off from the finger portion of the
このようにこの第1実施形態によれば、マニピュレータ11で対象物Aを把持する前に対象物Aの形状の認識と重量の推定(計算)を行うので、始めにグリッパ部12で対象物Aを掴むときから適切な把持力で対象物Aを把持することができ、かつ対象物Aの設置位置の変化に自律的に対応可能であり、対象物Aの把持・移動作業時にマニピュレータ11の把持力が弱すぎて対象物Aが落下したり、マニピュレータ11の把持力が強すぎて対象物Aを握りつぶす(破損)などのミスを極力なくすことができる。
As described above, according to the first embodiment, since the shape of the object A is recognized and the weight is estimated (calculated) before the manipulator 11 holds the object A, the
(第2実施形態)
次に、図3を参照して第2実施形態について説明する。図3は第2実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。なお以下の実施形態において、第1実施形態と同一の構成および動作工程には同一の符号を付し重複する説明は省略する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the manipulator work support system of the second embodiment. In the following embodiments, the same configurations and operation steps as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.
この第2実施形態は、第1実施形態に示したマニピュレータ作業支援システムの構成において、対象物Aの形状計測を行うことで、把持可能な位置を探索して自動的に設定する動作の一例である。 This second embodiment is an example of an operation of searching for a position where the gripper can be gripped and automatically setting it by measuring the shape of the object A in the configuration of the manipulator work support system shown in the first embodiment. is there.
この第2実施形態のマニピュレータ作業支援システムでは、形状計測処理用PC42のCPUは、上記第1実施形態と同様の処理で重量を推定、つまり計算により求めた後(S101〜S106)、対象物Aより得た3次元形状のデータより対象物Aの重心位置を計算により求める(S207)。
In the manipulator work support system according to the second embodiment, the CPU of the shape
次に、形状計測処理用PC42のCPUは、求めた対象物Aの重心位置近傍でかつグリッパ部12にて把持可能な位置を特定(決定)する(S208)。重心位置近傍とは、重心からの距離が予め設定された範囲内をいい、この例では例えば数cm以内をいう。
Next, the CPU of the shape
把持可能位置は、グリッパ部12の指形状に依存するが、例えば単純な2本指の開閉機構からなるグリッパ部12の場合は、指の開口幅と把持部の接触面積から決定される。
Although the grippable position depends on the finger shape of the
重心位置付近位置で把持が不可能な場合は、重心位置を中心にしてなるべくその近傍にて把持可能位置を探索して決定する。 If gripping is impossible at a position near the center of gravity, a grippable position is searched and determined as close to the center of gravity as possible.
次に、形状計測処理用PC42のCPUは、計算により求めた対象物Aの重量から対象物Aに適した把持力を決定する(S209)。このとき、把持位置が重心よりもずれる場合は、その把持位置を持つことによって発生する回転モーメントの値をパラメータの一つとして把持力を決定し、決定した把持力を制御用PC41へ通知する。
Next, the CPU of the shape
把持力の通知を受けた制御用PC41のCPUは、形状計測センサ14により測定された測定値によって対象物Aの位置姿勢を確認しながらマニピュレータ11を動作させてグリッパ部12(手先)を形状計測処理用PC42により決定された把持可能位置へ移動し(S210)、その位置でグリッパ部12にて対象物Aを把持する(S211)。
The CPU of the
このとき制御用PC41のCPUは、把持力計測センサ(図示せず)の把持力測定値が先に決定した力になるようにグリッパ部12の把持力を調整しながらグリッパ部12の先端部12a(手先)を閉じてゆき対象物Aを把持する。
At this time, the CPU of the
なお、手先に加わる外力の計測センサとして6軸力センサ15を利用した場合は、力成分のみならずモーメント成分の測定も可能であるため、モーメントの大きさから対象物Aの重心位置を測定することが可能であり、計算で求めた重心位置を補正(修正)する(S212)。
Note that when the 6-
このようにこの第2実施形態によれば、第1実施形態の機能に加えて、把持位置が不確定な対象物Aについてもその位置を自律的に決定および修正することが可能な物体の把持・移動作業を実現することができる。 As described above, according to the second embodiment, in addition to the function of the first embodiment, it is possible to grip an object that can autonomously determine and correct the position of an object A whose grip position is uncertain.・ Movement work can be realized.
(第3実施形態)
次に、図4を参照して第3実施形態について説明する。図4は第3実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。
この第3実施形態では、第1実施形態に示した物体情報データベース用PC43の物体情報物体情報データベース43bに、把持対象物の特性データを収納しておく。
(Third embodiment)
Next, a third embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing the processing operation of the manipulator work support system of the third embodiment.
In the third embodiment, the characteristic data of the object to be grasped is stored in the object information object
図4に示すように、物体情報データベース43bに、各々の対象物の正確な形状、重量、重心位置、把持可能位置、把持位置の摩擦係数、適切な把持力など、物体固有の情報を登録しておく。
As shown in FIG. 4, object-specific information such as the accurate shape, weight, center of gravity position, grippable position, friction coefficient of gripping position, and appropriate gripping force of each target object is registered in the
次に、マニピュレータ11による把持作業時に、第1実施形態と同様に、形状計測処理用PC42のCPUは、グリップ部12(手先)の形状計測センサ14により計測された対象物Aの3次元形状計測データを取得し(S302)、この3次元形状データを基に物体情報データベース43bを参照することで、対象物Aの密度を計算する(S303)。
Next, during the gripping operation by the manipulator 11, the CPU of the shape
そして、形状計測処理用PC42のCPUは、該当する物体固有の情報を、物体情報データベース43bから検索して取得することで適切な把持力を決定し、制御用PC41のCPUがその決定した把持力でマニピュレータ11を動作させてそのグリップ部12(手先)を対象物Aの位置へ移動し(S304)、対象物Aを把持する(S305)。
Then, the CPU of the shape
対象物Aの3次元形状計測データを用いた検索方法の例としては、3次元空間上で表現される対象物Aの形状の特徴を表す頂点の位置関係やサイズなどの比較によって行う方法がある。 As an example of a search method using the three-dimensional shape measurement data of the object A, there is a method of performing comparison by comparing the positional relationship and size of the vertices representing the shape characteristics of the object A expressed in the three-dimensional space. .
この場合、物体固有の情報を物体情報データベース43bに登録できるので、その把持にかかわる情報だけでなく、例えばその対象物Aの利用方法の情報なども登録しておくことができる。
In this case, information unique to the object can be registered in the
例えば、対象物Aがネジ回しなどの工具であれば、ネジ山に先端を押し付け長手軸方向に回転させるといった、その工具の使用方法の情報を物体情報データベース43bから取得して作業に利用することができる。
For example, if the object A is a tool such as a screwdriver, information on how to use the tool, such as pressing the tip against a screw thread and rotating it in the longitudinal axis direction, is acquired from the
このようにこの第3実施形態によれば、物体情報データベース43bに、既知の把持対象物の正確な形状、重量、重心位置、把持可能位置、把持位置の摩擦係数、適切な把持力などを登録しておくことで、対象物Aについて詳細な情報を得ることができ、正確な把持動作を行うことができる。また、把持動作のみならず対象物Aを把持した状態での作業に応用することが可能である。
As described above, according to the third embodiment, the accurate shape, weight, center of gravity position, grippable position, friction coefficient of the gripping position, appropriate gripping force, etc. of the known gripping target are registered in the
(第4実施形態)
次に、図5を参照して第4実施形態について説明する。図5は第4実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。
(Fourth embodiment)
Next, a fourth embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing the processing operation of the manipulator work support system of the fourth embodiment.
上記第3実施形態では、物体情報データベース43bの情報を予め人の手によって入力および登録する必要があり、既知の対象物Aにしか対応できない。
In the third embodiment, information in the
そこで、この第4実施形態では、第1実施形態および第2実施形態の機能によって取得した未知の対象物Aの形状や重量、適切な把持力などのデータを物体情報データベース43bに登録することで、対応可能な対象物Aを自動的に追加するものである。
Therefore, in the fourth embodiment, data such as the shape and weight of the unknown object A acquired by the functions of the first embodiment and the second embodiment, an appropriate gripping force, and the like are registered in the
すなわち、この第4実施形態のマニピュレータ作業支援システムでは、形状計測処理用PC42のCPUは、上記第1実施形態と同様の処理で重量を推定した後(S101〜S106)、対象物Aより得た3次元形状のデータより対象物Aの重心位置を計算により求める(S207)。
That is, in the manipulator work support system of the fourth embodiment, the CPU of the shape
次に、形状計測処理用PC42のCPUは、求めた対象物Aの重心位置近傍でかつグリッパ部12にて把持可能な位置を特定(決定)する(S208)。重心位置近傍とは、予め設定された数cm以内をいう。
Next, the CPU of the shape
把持可能位置は、グリッパ部12の指形状に依存するが、例えば単純な2本指の開閉機構からなるグリッパ部12の場合は、指の開口幅と把持部の接触面積から決定される。
Although the grippable position depends on the finger shape of the
重心位置付近位置で把持が不可能な場合は、重心位置を中心にしてなるべくその近傍にて把持可能位置を探索して決定する。 If gripping is impossible near the position of the center of gravity, the grippable position is searched and determined as close to the center of gravity as possible.
次に、形状計測処理用PC42のCPUは、計算により求めた対象物Aの重量から対象物Aに適した把持力を決定する(S209)。このとき、把持位置が重心よりもずれる場合は、その把持位置を持つことによって発生する回転モーメントの値をパラメータの一つとして把持力を決定し、決定した把持力を制御用PC41へ通知する。
Next, the CPU of the shape
把持力の通知を受けた制御用PC41のCPUは、形状計測センサ14により測定された測定値によって対象物Aの位置姿勢を確認しながらマニピュレータ11を動作させてグリッパ部12(手先)を形状計測処理用PC42により決定された把持可能位置へ移動し(S210)、その位置でグリッパ部12にて対象物Aを把持する(S211)。
The CPU of the
このとき制御用PC41のCPUは、把持力計測センサ(図示せず)の把持力測定値が先に決定した力になるようにグリッパ部12の把持力を調整しながらグリッパ部12の先端部12a(手先)を閉じてゆき対象物Aを把持する。
At this time, the CPU of the
なお、手先に加わる外力の計測センサとして6軸力センサ15を利用した場合は、力成分のみならずモーメント成分の測定も可能であるため、モーメントの大きさから対象物Aの重心位置を測定することが可能であり、計算で求めた重心位置を補正(修正)する(S212)。
Note that when the 6-
最後に、形状計測処理用PC42のCPUは、取得した未知の対象物Aの形状や重量、適切な把持力などのデータを物体情報データベース43bに登録し、物体情報データベース43bの内容を更新する(S413)。
Finally, the CPU of the shape
このようにこの第4実施形態によれば、対象物Aの固有情報が既知であるものに加え、未知であるものも計測を行い計算した物体の情報を、物体情報データベース43bに追加登録することで、同じ物体を再度把持するときは物体情報データベース43bを参照することで、人手によるデータベース登録がない物体についても適正な把持力で物体を把持・移動することができる。
As described above, according to the fourth embodiment, in addition to the information specific to the object A being known, the unknown information is measured and calculated, and the object information calculated is additionally registered in the
(第5実施形態)
次に、第5実施形態について説明する。
第5実施形態は、第4実施形態に関連し、対象物Aの形状が物体情報データベース43bに登録されている物体のデータと一致しないものの近似、つまり形状が類似する場合に、その類似した物体のデータに基づいて対象物Aの特性を計算で求めて、マニピュレータ11を制御し対象物Aを把持するものである。
(Fifth embodiment)
Next, a fifth embodiment will be described.
The fifth embodiment relates to the fourth embodiment, and approximates an object whose shape does not match the data of the object registered in the
例えばネジ回しなどの工具は大きさが異なる類似した形状のものが多数存在する。また、これら工具は、形が異なっていても工具としての使用方法は同じである。 For example, there are many similar tools of different sizes such as a screwdriver. Moreover, even if these tools differ in shape, the usage method as a tool is the same.
上記第4実施形態で示したように、形状計測の結果、物体情報データベース43bに存在する形状のものとは一致せず、対象物Aが未知形状であるものの、物体情報データベース43bに類似形状のデータが存在する場合、形状計測処理用PC42のCPUは、類似形状のデータを持つ物体の情報から、未知の対象物Aの重量を計算で求め、把持位置や把持力などを推定して決定すると共に、未知の対象物Aについての使用方法を既知の物と同じであるものとして物体情報データベース43bに追加登録する。
As shown in the fourth embodiment, as a result of shape measurement, the object A does not match the shape existing in the
第1実施形態および第2実施形態で示したような対象物Aの特性データの算出も併せて行うことで、特性の推定精度をより向上することができる。 By calculating the characteristic data of the object A as shown in the first embodiment and the second embodiment, the characteristic estimation accuracy can be further improved.
なお、実際に把持作業を実施した後には、その対象物の特性情報を物体情報データベース43bに追加して登録を行い、再活用できるようにする。
In addition, after actually carrying out the gripping work, the characteristic information of the object is added to the
このようにこの第5実施形態によれば、対象物Aの固有情報が未知であるものに対しても、物体情報データベース43bに類似する形状の物体情報が存在すれば、その物体情報を基に対象物Aの特性を計算により求めて、把持に係るパラメータを決定することができ、計測だけによる特性推定と併せて推定精度を向上させた物体の把持・移動作業を実現することができる。
As described above, according to the fifth embodiment, if object information having a shape similar to that in the
(第6実施形態)
次に、図6を参照して本発明に係る第6実施形態について説明する。図6は第6実施形態のマニピュレータの構成を示す図である。
この第6実施形態では、第1実施形態に示した構成に加えて、マニピュレータ11の手先部(把持部10)に搭載された非接触ICタグのリーダライタ61と、リーダライタ61がデータを書き込んだ非接触ICタグとしての情報タグ60を対象物Aに貼り付けるタグ設置機構62とから構成されている。
(Sixth embodiment)
Next, a sixth embodiment according to the present invention will be described with reference to FIG. FIG. 6 is a diagram showing the configuration of the manipulator of the sixth embodiment.
In the sixth embodiment, in addition to the configuration shown in the first embodiment, the reader /
リーダライタ61は、対象物Aの特性データを情報タグ60に記憶する情報書込部として機能する。
The reader /
また、リーダライタ61は、対象物Aに取り付けられている情報タグ60から、光または電波による無線通信で対象物Aの特性データを読み込み、把持力決定部である形状計測処理用PC42へ渡す情報読取部として機能する。
Further, the reader /
情報タグ60の片面には、粘着剤が塗布されている。タグ設置機構62は、伸縮可能な筒状部62aを有している。筒状部62aは、吸着ノズルとなっており、その先端に、粘着剤が塗布されていない情報タグ60の他の面が吸引などで吸着されている。
An adhesive is applied to one side of the
タグ設置機構62は、リーダライタ61によって特性データが書き込まれた情報タグ60を対象物Aに取り付ける取付部として機能する。
The
このタグ設置機構62の場合、情報タグ60を対象物Aに押し付けて吸引を停止することで、情報タグ60を対象物Aに貼り付ける装置である。
In the case of this
第1実施形態乃至第5実施形態で示した物体情報データベース43bを検索、参照する方式は照合の際に処理時間が発生すると共に、物体情報データベース43bの運用・管理が必要となる。
In the method for searching and referring to the
そこで、この第6実施形態では、一度推定した対象物の特性データをリーダライタ61が情報タグ60に書き込み、その情報タグ60をタグ設置機構62が把持対象物に貼り付ける。なお、情報タグ60は、貼り付けるだけでなく、磁石などで取り付けても良い。
Therefore, in the sixth embodiment, the reader /
このようにすることで、次回、同じ対象物Aを把持するときには、対象物Aに貼り付けられた情報タグ60に記憶された特性データをリーダライタ61が読み取り(読み込み)、形状計測処理用PC42に入力することで、形状計測処理用PC42のCPUは、当該対象物Aの適切な把持位置や把持力などの把持に係るパラメータを、測定および計算によらずに瞬時に決定することができる。
By doing so, the next time the same object A is gripped, the reader /
情報タグ60としては、この例のような電気的に読み書き可能なICタグの他、2次元バーコードをその場で印刷して作成して利用してもよい。なお、2次元バーコードの読み込みは、視覚センサによって行うため、形状計測用カメラを把持部10に搭載するようにする。また、情報タグ60に特性データ自体を書き込むのではなく、物体情報データベース43bの参照先のアドレスやパスを情報タグ60に記憶してもよい。
As the
このようにこの第6実施形態によれば、一度推定した対象物Aの把持に係る特性データ、つまりパラメータなどを情報タグ60に書き込み対象物Aに貼り付けておくことで、次回の把持作業時に、計測や計算および物体情報データベース43bの参照などを行うことなく、瞬時に物体の特性を取得し、適正な把持力で対象物Aを把持し移動作業を行うことができる。
As described above, according to the sixth embodiment, the characteristic data relating to the grasping of the object A once estimated, that is, the parameters or the like are pasted on the object A to be written on the
(第7実施形態)
次に、図7を参照して第7実施形態について説明する。図7は第7実施形態の状態表示画面の一例を示す図である。
この第7実施形態は、第1実施形態に示した構成において、マニピュレータ11を操作するオペレータが状態表示PC44のディスプレイ44aに表示された状態表示を確認して操作を行うことで、マニピュレータ11の状態の確認と指示を与えられるようにしたものである。
(Seventh embodiment)
Next, a seventh embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a status display screen according to the seventh embodiment.
In the seventh embodiment, in the configuration shown in the first embodiment, the operator who operates the manipulator 11 confirms the state display displayed on the
状態表示PC44のCPUは、マニピュレータ11自身の姿勢やその手先の位置姿勢、また周囲の環境構造物を、視覚的に分かりやすいように3次元グラフィック処理にてディスプレイ44aに表示を行う。
The CPU of the state display PC 44 displays the posture of the manipulator 11 itself, the position and posture of its hand, and the surrounding environmental structure on the
ディスプレイ44aの状態表示画面71には、対象物Aの外形とその周辺の環境構造物がリアルに表示される。オペレータが状態表示画面71の操作カーソル72を、マウスなどで移動して対象物Aの表示を選択すると、状態表示PC44のCPUは、物体情報表示ウインドウ73をポップアップ表示する。
On the
物体情報表示ウインドウ73には、物体情報データベース43bに登録された対象物Aの材質や重量などの特性データおよび各計測装置により測定された対象物Aの材質や重量などの特性データが表示される。
In the object
ここで、表示する特性データには、第1実施形態乃至第3実施形態で示した成分分析装置13および形状計測装置14による計測結果と形状計測処理用PC42による算出結果とを用いると共に、物体情報データベース用PC43の物体情報データベース43bに登録されている物体情報を検索により読み出して表示する。
Here, as the characteristic data to be displayed, the measurement results obtained by the
また、マウスなどにより、状態表示画面71の対象物Aの表示が選択されたことで、状態表示PC44のCPUは、把持作業開始のトリガ信号をLAN21を通じて制御用PC41へ送信して、トリガ信号を受信した制御用PC41のCPUがマニピュレータコントローラ30に対して把持作業開始の制御指令を出すようにしても良い。
In addition, when the display of the object A on the
このようにこの第7実施形態によれば、オペレータが視覚的にロボットの状態と対象物Aの特性データを把握することが可能であり、画面上に表示されている対象物Aを選択することで、対象物Aの材質や重量などの特性データが表示されるので、オペレータは、これを見ながら物体の把持・移動作業を行うことができる。 As described above, according to the seventh embodiment, the operator can visually grasp the state of the robot and the characteristic data of the object A, and can select the object A displayed on the screen. Thus, since the characteristic data such as the material and weight of the object A is displayed, the operator can grasp and move the object while watching this.
以上説明したように上記実施形態によれば、マニピュレータ11の把持作業の適用範囲を拡大することができ、例えば家庭環境など多種多様な対象物が存在する空間での作業を行うロボットへの応用につなげることが可能である。 As described above, according to the above-described embodiment, the application range of the gripping operation of the manipulator 11 can be expanded. For example, the present invention can be applied to a robot that performs work in a space where various objects such as a home environment exist. It is possible to connect.
なお、本発明は上記実施形態のみに限定されるものではなく、変形が可能である。上記各実施形態では、多軸および多関節のマニピュレータ11を用いたが、本発明は、上記実施形態のみに限定されるものではなく、一軸のもの(関節のないもの)でもよく、物体を把持する機構に広く適用可能である。 In addition, this invention is not limited only to the said embodiment, A deformation | transformation is possible. In each of the above-described embodiments, the multi-axis and multi-joint manipulators 11 are used. However, the present invention is not limited to the above-described embodiment, and may be a single-axis (no joint) and grips an object. It can be widely applied to the mechanism.
また、上記実施形態では、対象物Aの材質や形状を計測する計測器をマニピュレータ11の手先に搭載する例を示したが、計測器の搭載位置は、マニピュレータ11の手先の位置に限定されるものではなくマニピュレータ11の手先以外の部分やマニピュレータ11とは別の位置に設置してもよい。 Moreover, although the example which mounts the measuring device which measures the material and shape of the target object A on the hand of the manipulator 11 was shown in the said embodiment, the mounting position of a measuring device is limited to the position of the hand of the manipulator 11. You may install in the position different from the part other than the hand of the manipulator 11, and the manipulator 11 instead of a thing.
さらに、上述した各実施形態を適宜組み合わせて、本発明の主旨を逸脱しない範囲で種々変形して実施することができる。 Furthermore, various embodiments described above can be combined as appropriate, and various modifications can be made without departing from the spirit of the present invention.
A… 把持対象物
10… 把持部
11… マニピュレータ
12… グリッパ部
13… 成分分析装置
14… 形状計測装置
15… 6軸力センサ
17… 作業台
18… 信号線・動力線
20… 通信線
21… LAN
30… マニピュレータコントローラ
41… 制御用コンピュータ(制御用PC)
42… 形状計測処理用コンピュータ(形状計測処理用PC)
43… 物体情報データベース用コンピュータ(物体情報データベース用PC)
44… 状態表示用コンピュータ(状態表示用PC)
60… 情報タグ
61… リーダライタ
62… タグ設置機構
71… 状態表示画面
72… 操作カーソル
73… 物体情報表示ウインドウ
A ... Object to be grasped 10 ... Gripping part 11 ...
30 ...
42 ... Computer for shape measurement processing (PC for shape measurement processing)
43 ... Object information database computer (object information database PC)
44 ... Status display computer (status display PC)
60 ...
Claims (10)
前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測する成分分析器と、
前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定する形状計測センサと、
前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とから前記把持対象物の体積を算出する体積算出部と、
既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、
前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、
前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、
前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部と
を具備することを特徴とするマニピュレータ制御システム。 A manipulator having a gripping part for gripping and moving a gripping object;
A component analyzer that is provided in the gripping unit and that emits light or radiation to the gripping object that is approached to measure the material in a non-contact manner;
A shape measuring sensor that is provided in the grip portion and radiates light or radiation to the gripped object that is approached to measure the solid shape in a non-contact manner;
A volume calculation unit that calculates the volume of the gripping object from the material of the gripping object measured by the component analyzer and the three-dimensional shape measured by the shape measurement sensor;
A database that stores object information including the shape of a known object to be grasped, density information of a substance, grasping position, and grasping force;
The weight of the gripping object is calculated from the volume of the gripping object calculated by the volume calculation unit and the density information of the substance read from the database using the material of the gripping object measured by the component analyzer as a key. A weight calculating unit for calculating;
A gripping force calculator that calculates a gripping force of the gripping object from the weight of the gripping object calculated by the weight calculator;
And a control unit that operates the manipulator with the gripping force calculated by the gripping force calculation unit.
前記検索部により検索された前記把持対象物の特性データを出力する手段と
を具備することを特徴とする請求項1記載のマニピュレータ制御システム。 Using the measured shape of the gripping object as a search key, a search unit that searches for characteristic data of the gripping object from the object information database;
The manipulator control system according to claim 1, further comprising means for outputting characteristic data of the grasped object searched by the search unit.
前記把持対象物の特性データを基に前記データベースに予め記憶された把持位置、把持力の中から適切な把持位置、把持力を決定する把持力決定部と
を具備することを特徴とする請求項3記載のマニピュレータ制御システム。 If the information of the gripping object does not exist in the database as a result of the search by the search unit, the data of the object similar to the shape of the gripping object is read from the database for the measured and calculated unknown object. And a data selection unit having the characteristic data as data of the gripping object,
A gripping force determining unit that determines an appropriate gripping position and a gripping force from among gripping positions and gripping forces stored in advance in the database on the basis of characteristic data of the gripping object. 3. The manipulator control system according to 3.
前記情報書込部により書き込まれた情報タグを前記把持対象物に取り付る取付部と
を具備することを特徴とする請求項1乃至5いずれか1記載のマニピュレータ制御システム。 An information writing unit for storing characteristic data of the gripping object in an information tag;
The manipulator control system according to any one of claims 1 to 5, further comprising an attachment unit that attaches the information tag written by the information writing unit to the grasped object.
前記把持対象物の形状、重量および特性などの計算値または推定値、あるいは前記データベースより読み出した情報を表示する表示手段の少なくとも一つを備えることを特徴とする請求項1乃至7いずれか1記載のマニピュレータ制御システム。 Display means for three-dimensionally displaying the positions and postures of the manipulator and the gripping object;
8. The apparatus according to claim 1, further comprising at least one of display means for displaying calculated values or estimated values of the shape, weight, and characteristics of the grasped object, or information read from the database. Manipulator control system.
前記把持部に設けられた成分分析器が、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測するステップと、
前記把持部に設けられた形状計測センサが、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定するステップと、
前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とからコンピュータが前記把持対象物の体積を算出するステップと、
計算した前記把持対象物の体積と、計測した前記把持対象物の材質をキーにデータベースから読み出した物質の密度情報とから前記コンピュータが前記把持対象物の重量を算出するステップと、
算出した前記把持対象物の重量から前記コンピュータが、前記把持対象物を前記マニピュレータが把持するための把持力を算出するステップと、
算出した把持力にて前記コンピュータが前記マニピュレータを動作させるステップと
を有することを特徴とするマニピュレータ制御方法。 In a manipulator control method for gripping / moving the gripping object by controlling a manipulator having a gripping part for gripping / moving the gripping object,
A component analyzer provided in the gripping unit emits light or radiation to the gripping object that is approached, and measures the material in a non-contact manner;
A shape measuring sensor provided in the gripping unit radiates light or radiation to the gripping object that is approached, and measures the three-dimensional shape without contact;
A computer calculating a volume of the gripping object from a material of the gripping object measured by the component analyzer and a three-dimensional shape measured by the shape measurement sensor;
The computer calculates the weight of the gripping object from the calculated volume of the gripping object and the density information of the substance read from the database using the measured material of the gripping object as a key;
The computer calculates a gripping force for the manipulator to grip the gripping object from the calculated weight of the gripping object;
And a step of causing the computer to operate the manipulator with the calculated gripping force.
前記コンピュータを、
前記把持部に設けられた成分分析器が前記把持対象物に対して光または放射線を放射して非接触で計測した材質と、前記把持部に設けられた形状計測センサが、前記把持対象物に対して光または放射線を放射して非接触で測定した立体形状とから前記把持対象物の体積を算出する体積算出部と、
既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、
前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された前記把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、
前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、
前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部
として機能させることを特徴とするプログラム。 In a program for a computer to control a manipulator having a gripping part for gripping and moving a gripping object,
The computer,
The component analyzer provided in the gripping part emits light or radiation to the gripping object and measured without contact, and the shape measurement sensor provided in the gripping part includes the gripping object. On the other hand, a volume calculation unit that calculates the volume of the grasped object from a three-dimensional shape that is measured in a non-contact manner by emitting light or radiation;
A database that stores object information including the shape of a known object to be grasped, density information of a substance, grasping position, and grasping force;
The weight of the gripping object based on the volume of the gripping object calculated by the volume calculation unit and the density information of the substance read from the database using the material of the gripping object measured by the component analyzer as a key. A weight calculation unit for calculating
A gripping force calculator that calculates a gripping force of the gripping object from the weight of the gripping object calculated by the weight calculator;
A program that functions as a control unit that operates the manipulator with the gripping force calculated by the gripping force calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006230483A JP2008049459A (en) | 2006-08-28 | 2006-08-28 | System, method and program for controlling manipulator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006230483A JP2008049459A (en) | 2006-08-28 | 2006-08-28 | System, method and program for controlling manipulator |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008049459A true JP2008049459A (en) | 2008-03-06 |
Family
ID=39233969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006230483A Withdrawn JP2008049459A (en) | 2006-08-28 | 2006-08-28 | System, method and program for controlling manipulator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008049459A (en) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008055584A (en) * | 2006-09-04 | 2008-03-13 | Toyota Motor Corp | Robot for holding object and holding method of object by robot |
JP2010094777A (en) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | Remote control support device |
JP2010172969A (en) * | 2009-01-27 | 2010-08-12 | Yaskawa Electric Corp | Robot system and method of controlling robot |
JP2011516283A (en) * | 2009-01-09 | 2011-05-26 | チーユー リン | Method for teaching a robot system |
JP2011230263A (en) * | 2010-04-30 | 2011-11-17 | Seiko Epson Corp | Gripping robot and method for gripping |
JP2012006097A (en) * | 2010-06-23 | 2012-01-12 | Yaskawa Electric Corp | Robot device |
JP2012066378A (en) * | 2010-09-22 | 2012-04-05 | Toyota Motor Engineering & Manufacturing North America Inc | Human-robot interface apparatus and method for controlling robot |
JP2012139758A (en) * | 2010-12-28 | 2012-07-26 | Toyota Motor Corp | Gripping device |
JP2012179673A (en) * | 2011-03-01 | 2012-09-20 | Seiko Epson Corp | Device and method for controlling robot, and program |
JP2013144355A (en) * | 2012-01-13 | 2013-07-25 | Toyota Motor Engineering & Manufacturing North America Inc | Method and computer-program product for generating grasp pattern for use by robot |
KR101294250B1 (en) * | 2012-02-17 | 2013-08-07 | 재단법인대구경북과학기술원 | Method and apparatus for calculating of gripping force of gripper |
WO2016043227A1 (en) * | 2014-09-20 | 2016-03-24 | 株式会社イシダ | Mass measurement device |
JP2016209952A (en) * | 2015-05-08 | 2016-12-15 | ファナック株式会社 | Load parameter setting device and load parameter setting method |
JP2017030054A (en) * | 2015-07-28 | 2017-02-09 | ファナック株式会社 | Electric discharge machine with function to automatically calculate workpiece weight |
KR101757855B1 (en) | 2016-04-08 | 2017-07-14 | 주식회사 에이치에스씨 | Robot with finger for weight measuring |
JP2017533423A (en) * | 2014-10-13 | 2017-11-09 | コリア インスティテュート オブ インダストリアル テクノロジーKorea Institute Of Industrial Technology | Excrement shape measuring apparatus and method |
JP2018027581A (en) * | 2016-08-17 | 2018-02-22 | 株式会社安川電機 | Picking system |
JP2018051652A (en) * | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | Robot system |
KR101902678B1 (en) * | 2014-07-16 | 2018-09-28 | 엑스 디벨롭먼트 엘엘씨 | Real-time determination of object metrics for trajectory planning |
JP2018203480A (en) * | 2017-06-07 | 2018-12-27 | 株式会社東芝 | Sorting apparatus and sorting system |
JP2019155542A (en) * | 2018-03-14 | 2019-09-19 | 株式会社東芝 | Conveyance device, conveyance system, controller, and conveyance method |
JP2020040780A (en) * | 2018-09-10 | 2020-03-19 | 株式会社東芝 | Picking system, and apparatus and program for processing information |
JP2020151812A (en) * | 2019-03-20 | 2020-09-24 | ファナック株式会社 | Device, method and program for estimating weight and position of center of gravity of load using robot |
JPWO2020008602A1 (en) * | 2018-07-05 | 2021-06-24 | 株式会社Fuji | Vertical articulated robot and work equipment |
WO2021141039A1 (en) * | 2020-01-09 | 2021-07-15 | ファナック株式会社 | Workpiece conveyance system |
WO2022038889A1 (en) * | 2020-08-17 | 2022-02-24 | ソニーグループ株式会社 | Information processing device and information processing method, and computer program |
US11584016B2 (en) | 2018-04-24 | 2023-02-21 | Fanuc Corporation | Robot controller and system |
WO2023066201A1 (en) * | 2021-10-18 | 2023-04-27 | 达闼机器人股份有限公司 | Mechanical arm motion path planning method and apparatus, device, program, and medium |
WO2023120728A1 (en) * | 2021-12-24 | 2023-06-29 | 京セラ株式会社 | Robot control device and robot control method |
US11701775B2 (en) | 2020-06-11 | 2023-07-18 | Seiko Epson Corporation | Method of setting target force upper limit and robot system |
DE112021005493T5 (en) | 2020-10-19 | 2023-08-31 | Mitsubishi Electric Corporation | ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD |
CN116766212A (en) * | 2023-08-17 | 2023-09-19 | 深圳市心流科技有限公司 | Bionic hand control method, bionic hand control device, bionic hand control equipment and storage medium |
JP7514412B1 (en) | 2023-08-30 | 2024-07-10 | ヤマザキマザック株式会社 | Machining system, machine tool system, and workpiece machining method |
US12122616B2 (en) | 2020-01-09 | 2024-10-22 | Fanuc Corporation | Workpiece transfer system |
-
2006
- 2006-08-28 JP JP2006230483A patent/JP2008049459A/en not_active Withdrawn
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008055584A (en) * | 2006-09-04 | 2008-03-13 | Toyota Motor Corp | Robot for holding object and holding method of object by robot |
JP2010094777A (en) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | Remote control support device |
JP2011516283A (en) * | 2009-01-09 | 2011-05-26 | チーユー リン | Method for teaching a robot system |
JP2010172969A (en) * | 2009-01-27 | 2010-08-12 | Yaskawa Electric Corp | Robot system and method of controlling robot |
JP2011230263A (en) * | 2010-04-30 | 2011-11-17 | Seiko Epson Corp | Gripping robot and method for gripping |
JP2012006097A (en) * | 2010-06-23 | 2012-01-12 | Yaskawa Electric Corp | Robot device |
JP2012066378A (en) * | 2010-09-22 | 2012-04-05 | Toyota Motor Engineering & Manufacturing North America Inc | Human-robot interface apparatus and method for controlling robot |
JP2012139758A (en) * | 2010-12-28 | 2012-07-26 | Toyota Motor Corp | Gripping device |
JP2012179673A (en) * | 2011-03-01 | 2012-09-20 | Seiko Epson Corp | Device and method for controlling robot, and program |
JP2013144355A (en) * | 2012-01-13 | 2013-07-25 | Toyota Motor Engineering & Manufacturing North America Inc | Method and computer-program product for generating grasp pattern for use by robot |
KR101294250B1 (en) * | 2012-02-17 | 2013-08-07 | 재단법인대구경북과학기술원 | Method and apparatus for calculating of gripping force of gripper |
KR101902678B1 (en) * | 2014-07-16 | 2018-09-28 | 엑스 디벨롭먼트 엘엘씨 | Real-time determination of object metrics for trajectory planning |
JP2016061748A (en) * | 2014-09-20 | 2016-04-25 | 株式会社イシダ | Mass measuring device |
WO2016043227A1 (en) * | 2014-09-20 | 2016-03-24 | 株式会社イシダ | Mass measurement device |
JP2017533423A (en) * | 2014-10-13 | 2017-11-09 | コリア インスティテュート オブ インダストリアル テクノロジーKorea Institute Of Industrial Technology | Excrement shape measuring apparatus and method |
JP2016209952A (en) * | 2015-05-08 | 2016-12-15 | ファナック株式会社 | Load parameter setting device and load parameter setting method |
US10252418B2 (en) | 2015-05-08 | 2019-04-09 | Fanuc Corporation | Load parameter setting method and load parameter setting device |
JP2017030054A (en) * | 2015-07-28 | 2017-02-09 | ファナック株式会社 | Electric discharge machine with function to automatically calculate workpiece weight |
US10180344B2 (en) | 2015-07-28 | 2019-01-15 | Fanuc Corporation | Electric discharge machine |
KR101757855B1 (en) | 2016-04-08 | 2017-07-14 | 주식회사 에이치에스씨 | Robot with finger for weight measuring |
JP2018027581A (en) * | 2016-08-17 | 2018-02-22 | 株式会社安川電機 | Picking system |
CN107756422A (en) * | 2016-08-17 | 2018-03-06 | 株式会社安川电机 | picking up system |
JP2018051652A (en) * | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | Robot system |
US10751759B2 (en) | 2017-06-07 | 2020-08-25 | Kabushiki Kaisha Toshiba | Sorting apparatus and sorting system |
JP2018203480A (en) * | 2017-06-07 | 2018-12-27 | 株式会社東芝 | Sorting apparatus and sorting system |
JP2019155542A (en) * | 2018-03-14 | 2019-09-19 | 株式会社東芝 | Conveyance device, conveyance system, controller, and conveyance method |
US11584016B2 (en) | 2018-04-24 | 2023-02-21 | Fanuc Corporation | Robot controller and system |
JPWO2020008602A1 (en) * | 2018-07-05 | 2021-06-24 | 株式会社Fuji | Vertical articulated robot and work equipment |
JP7108030B2 (en) | 2018-07-05 | 2022-07-27 | 株式会社Fuji | Vertical articulated robots and work equipment |
JP7237496B2 (en) | 2018-09-10 | 2023-03-13 | 株式会社東芝 | Picking system, information processing device and information processing program |
EP3822202A4 (en) * | 2018-09-10 | 2022-04-06 | Kabushiki Kaisha Toshiba | Picking system, information processing device, and computer-readable recording medium |
JP2020040780A (en) * | 2018-09-10 | 2020-03-19 | 株式会社東芝 | Picking system, and apparatus and program for processing information |
JP7136729B2 (en) | 2019-03-20 | 2022-09-13 | ファナック株式会社 | Apparatus, method, program, controller and robot system for estimating load weight and center-of-gravity position using a robot |
JP2020151812A (en) * | 2019-03-20 | 2020-09-24 | ファナック株式会社 | Device, method and program for estimating weight and position of center of gravity of load using robot |
CN111721391A (en) * | 2019-03-20 | 2020-09-29 | 发那科株式会社 | Device, method, and program for estimating weight and center of gravity position of load by robot |
CN111721391B (en) * | 2019-03-20 | 2024-04-23 | 发那科株式会社 | Apparatus, method and computer readable recording medium for estimating weight and center of gravity position of load by robot |
US11331810B2 (en) | 2019-03-20 | 2022-05-17 | Fanuc Corporation | Device, method and program for estimating weight and position of gravity center of load by using robot |
CN114901439A (en) * | 2020-01-09 | 2022-08-12 | 发那科株式会社 | Workpiece conveying system |
JPWO2021141039A1 (en) * | 2020-01-09 | 2021-07-15 | ||
WO2021141039A1 (en) * | 2020-01-09 | 2021-07-15 | ファナック株式会社 | Workpiece conveyance system |
US12122616B2 (en) | 2020-01-09 | 2024-10-22 | Fanuc Corporation | Workpiece transfer system |
US11701775B2 (en) | 2020-06-11 | 2023-07-18 | Seiko Epson Corporation | Method of setting target force upper limit and robot system |
WO2022038889A1 (en) * | 2020-08-17 | 2022-02-24 | ソニーグループ株式会社 | Information processing device and information processing method, and computer program |
DE112021005493T5 (en) | 2020-10-19 | 2023-08-31 | Mitsubishi Electric Corporation | ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD |
WO2023066201A1 (en) * | 2021-10-18 | 2023-04-27 | 达闼机器人股份有限公司 | Mechanical arm motion path planning method and apparatus, device, program, and medium |
WO2023120728A1 (en) * | 2021-12-24 | 2023-06-29 | 京セラ株式会社 | Robot control device and robot control method |
CN116766212A (en) * | 2023-08-17 | 2023-09-19 | 深圳市心流科技有限公司 | Bionic hand control method, bionic hand control device, bionic hand control equipment and storage medium |
CN116766212B (en) * | 2023-08-17 | 2023-12-19 | 深圳市心流科技有限公司 | Bionic hand control method, bionic hand control device, bionic hand control equipment and storage medium |
JP7514412B1 (en) | 2023-08-30 | 2024-07-10 | ヤマザキマザック株式会社 | Machining system, machine tool system, and workpiece machining method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008049459A (en) | System, method and program for controlling manipulator | |
US11090814B2 (en) | Robot control method | |
CN110977931B (en) | Robot control device and display device using augmented reality and mixed reality | |
JP6880982B2 (en) | Control device and robot system | |
US10551821B2 (en) | Robot, robot control apparatus and robot system | |
CN105598987B (en) | Determination of a gripping space for an object by means of a robot | |
US8954195B2 (en) | Hybrid gesture control haptic system | |
JP6450960B2 (en) | Robot, robot system and teaching method | |
US9120233B2 (en) | Non-contact optical distance and tactile sensing system and method | |
US20180029232A1 (en) | Control apparatus and robot | |
US10166673B2 (en) | Portable apparatus for controlling robot and method thereof | |
EP3354418B1 (en) | Robot control method and device | |
US20180178388A1 (en) | Control apparatus, robot and robot system | |
JP2014512530A (en) | Coordinate positioning device | |
CN112512754B (en) | Method for programming an industrial robot | |
US20180178389A1 (en) | Control apparatus, robot and robot system | |
JP6798425B2 (en) | Robot control method and robot system | |
JP6787294B2 (en) | Robot systems, control methods, and robots | |
JP6570540B2 (en) | Method for handling an object using a manipulator and an input tool | |
CN111721391B (en) | Apparatus, method and computer readable recording medium for estimating weight and center of gravity position of load by robot | |
JP2017205819A (en) | Robot, control device and robot system | |
US11085751B2 (en) | Ergonomic mobile controller for coordinate measuring machine | |
JP2006297559A (en) | Calibration system and robot's calibration method | |
JP2004230539A (en) | Method and device for detecting position and attitude of object by robot | |
US10948370B2 (en) | Haptic pin field sensor and manipulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20091110 |