JP6752615B2 - Information processing device, information processing method, robot control device and robot system - Google Patents

Information processing device, information processing method, robot control device and robot system Download PDF

Info

Publication number
JP6752615B2
JP6752615B2 JP2016092681A JP2016092681A JP6752615B2 JP 6752615 B2 JP6752615 B2 JP 6752615B2 JP 2016092681 A JP2016092681 A JP 2016092681A JP 2016092681 A JP2016092681 A JP 2016092681A JP 6752615 B2 JP6752615 B2 JP 6752615B2
Authority
JP
Japan
Prior art keywords
information
robot
target object
gripping
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016092681A
Other languages
Japanese (ja)
Other versions
JP2017136677A (en
Inventor
山田 大輔
大輔 山田
鈴木 雅博
雅博 鈴木
小林 一彦
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/209,489 priority Critical patent/US10335951B2/en
Publication of JP2017136677A publication Critical patent/JP2017136677A/en
Application granted granted Critical
Publication of JP6752615B2 publication Critical patent/JP6752615B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法、ロボット制御装置及びロボットシステムに関する。 The present invention relates to an information processing device, an information processing method, a robot control device, and a robot system.

従来、乱雑に山積みされた対象物体を1つ1つロボットが把持するための技術として、視覚センサを用いて対象物体の位置および姿勢を把握するロボット装置が知られている。特許文献1には、対象物体と同一形状の物体を複数の方向から撮像して教示モデルを作成しておき、教示モデルと山積みされた対象物体を撮像した画像データとのマッチングを行うことで、対象物体の位置および姿勢を認識することが開示されている。 Conventionally, as a technique for a robot to grasp a randomly piled object one by one, a robot device for grasping a position and a posture of the object object by using a visual sensor is known. In Patent Document 1, an object having the same shape as the target object is imaged from a plurality of directions to create a teaching model, and the teaching model is matched with the image data obtained by capturing the piled target objects. It is disclosed to recognize the position and orientation of a target object.

特許第3300682号公報Japanese Patent No. 3300682

視覚センサを用いた計測では、撮像した物体の表面位置の情報しか取得することができない。そのため、上記特許文献1に記載の技術では、対象物体がビニール袋や緩衝材によって包まれている場合、画像データ内の対象物体が教示モデルとマッチングしない。したがって、この場合、ビニール袋や緩衝材に包まれた中身である対象物体の位置および姿勢を適切に認識できず、ロボットは対象物体を把持することができない。
そこで、本発明は、表面位置情報だけでは対象物体を正確に認識できない場合であっても、対象物体の位置および姿勢を適切に認識することを目的とする。
In the measurement using the visual sensor, only the information on the surface position of the imaged object can be acquired. Therefore, in the technique described in Patent Document 1, when the target object is wrapped with a plastic bag or a cushioning material, the target object in the image data does not match the teaching model. Therefore, in this case, the position and posture of the target object, which is the contents wrapped in the plastic bag or the cushioning material, cannot be properly recognized, and the robot cannot grasp the target object.
Therefore, an object of the present invention is to appropriately recognize the position and orientation of the target object even when the target object cannot be accurately recognized only by the surface position information.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、対象物体と周辺物体からなる物体を認識する情報処理装置であって、物体の表面位置情報を取得する取得手段と、前記取得手段により取得された前記表面位置情報に基づいて、前記物体を実測するための計測位置を決定する決定手段と、前記決定手段により決定された前記計測位置において前記物体に接触したときの接触位置情報を計測する計測手段と、前記計測手段により計測された前記接触位置情報に基づいて、前記物体の空間的な位置情報を示す地図情報を作成する作成手段と、前記作成手段により作成された前記地図情報に基づいて、前記物体の位置および姿勢を認識する認識手段と、を備え、前記計測手段は、接近した前記物体までの距離を取得する距離の取得手段を備え、前記物体に接触しているときに前記距離の取得手段によって取得された距離に基づいて、前記接触位置情報を計測する。 In order to solve the above problems, one aspect of the information processing device according to the present invention is an information processing device that recognizes an object composed of a target object and a peripheral object, and is an acquisition means for acquiring surface position information of the object. A determination means for determining a measurement position for actually measuring the object based on the surface position information acquired by the acquisition means, and a contact when the object is contacted at the measurement position determined by the determination means. A measuring means for measuring position information, a creating means for creating map information indicating spatial position information of the object based on the contact position information measured by the measuring means, and a creating means created by the creating means. The measuring means includes a recognizing means for recognizing the position and orientation of the object based on the map information, and the measuring means includes a distance acquiring means for acquiring the distance to the approaching object and comes into contact with the object. based on the distance obtained by the distance obtaining means when being, it measures the contact position information.

本発明によれば、表面位置情報だけでは対象物体を正確に認識できない場合であっても、対象物体の位置および姿勢を適切に認識することができる。 According to the present invention, even when the target object cannot be accurately recognized only by the surface position information, the position and orientation of the target object can be appropriately recognized.

第一の実施形態のロボットシステムの構成例を示す図である。It is a figure which shows the configuration example of the robot system of 1st Embodiment. 情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of an information processing apparatus. 第一の実施形態における情報処理装置の機能ブロック図である。It is a functional block diagram of the information processing apparatus in 1st Embodiment. 第一の実施形態における動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation in 1st Embodiment. 第一の実施形態における動作を説明するための図である。It is a figure for demonstrating the operation in 1st Embodiment. 第二の実施形態のロボットシステムの構成例を示す図である。It is a figure which shows the configuration example of the robot system of the 2nd Embodiment. 第二の実施形態における情報処理装置の機能ブロック図である。It is a functional block diagram of the information processing apparatus in the 2nd Embodiment. 第二の実施形態における動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation in 2nd Embodiment. 第三の実施形態のロボットシステムの構成例を示す図である。It is a figure which shows the configuration example of the robot system of the 3rd Embodiment.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
第一の実施形態では、撮像装置により撮像して得られた物体(対象物体およびその周辺の周辺物体)の画像情報をもとに計測した物体の3次元位置情報と、力覚センサによる計測情報とを統合して、物体の地図情報を作成する。そして、作成した地図情報を利用して、対象物体の位置および姿勢を認識する。本実施形態において、対象物体とは、ロボットによる操作の対象となる物体であり、例えばビニール袋や緩衝材に包まれたトナーカートリッジのような部品を含む。また、力覚センサによる計測とは、力覚センサによってロボットが物体へ接触していることが検知されているときに、位置検出センサによってロボットによる接触位置を計測することをいう。さらに、地図情報とは、対象物体および周辺物体の空間的な位置情報である。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiments described below are examples of means for realizing the present invention, and should be appropriately modified or modified depending on the configuration of the device to which the present invention is applied and various conditions. It is not limited to the embodiment of.
(First Embodiment)
In the first embodiment, the three-dimensional position information of the object measured based on the image information of the object (the target object and the peripheral objects around it) obtained by imaging with the imaging device, and the measurement information by the force sensor. To create map information of an object by integrating with. Then, the position and orientation of the target object are recognized by using the created map information. In the present embodiment, the target object is an object to be operated by the robot, and includes, for example, a component such as a toner cartridge wrapped in a plastic bag or a cushioning material. Further, the measurement by the force sensor means that the contact position by the robot is measured by the position detection sensor when the force sensor detects that the robot is in contact with an object. Further, the map information is spatial position information of the target object and surrounding objects.

図1は、本実施形態における情報処理装置20を備えるロボットシステム100の構成例を示す図である。
ロボットシステム100は、ロボット10と、情報処理装置20と、を備える。ロボット10は、例えば多関節ロボットであり、ロボットアーム等のマニピュレータや、ロボットハンド等のエンドエフェクタ11を備える。また、ロボット10は、マニピュレータの各関節の角度を変更することでエンドエフェクタ11の位置姿勢を変更可能な位置姿勢変更機構を備える。位置姿勢変更機構は、電動モータによって駆動されてもよいし、油圧や空気圧等の流体圧で作動するアクチュエータによって駆動されてもよい。この位置姿勢変更機構は、情報処理装置20から出力される動作指示情報に従って駆動される。
FIG. 1 is a diagram showing a configuration example of a robot system 100 including an information processing device 20 according to the present embodiment.
The robot system 100 includes a robot 10 and an information processing device 20. The robot 10 is, for example, an articulated robot, and includes a manipulator such as a robot arm and an end effector 11 such as a robot hand. Further, the robot 10 is provided with a position / posture changing mechanism capable of changing the position / posture of the end effector 11 by changing the angle of each joint of the manipulator. The position / orientation changing mechanism may be driven by an electric motor or an actuator operated by a fluid pressure such as hydraulic pressure or pneumatic pressure. This position / orientation changing mechanism is driven according to the operation instruction information output from the information processing apparatus 20.

また、エンドエフェクタ11は、ロボット10の対象物体の種類に応じた操作を実現するためのツールであり、モータ駆動可能なチャック機構を有し対象物体を把持可能なハンドや、空気圧で対象物体を吸着する吸着パッドを用いたハンドを用いることができる。なお、エンドエフェクタ11は、ロボットアームに対して着脱可能に取り付けられており、ワークの種類に応じて交換可能である。また、ロボット10は、多関節ロボットに限定されるものではなく、数値制御(Numerical Control:NC)可能な可動式の機械であってもよい。 Further, the end effector 11 is a tool for realizing an operation according to the type of the target object of the robot 10, and is a hand having a chuck mechanism that can drive a motor and capable of gripping the target object, or a hand that can grip the target object by air pressure. A hand using a suction pad that sucks can be used. The end effector 11 is detachably attached to the robot arm and can be replaced according to the type of work. Further, the robot 10 is not limited to the articulated robot, and may be a movable machine capable of numerical control (NC).

ロボット10は、情報処理装置20によって決定された行動を実施し、対象物体41を搬送したり把持したりする操作を実行する。本実施形態において、行動とは、対象物体41を認識あるいは操作するためのロボット10の動作のことである。
対象物体41は、トナーカートリッジのような、ロボット10によって把持され搬送されることが想定される部品であり、ビニール袋や緩衝材に包まれている場合もある。つまり、対象物体41の周辺には、対象物体41を包んでいるビニール袋や緩衝材といった周辺物体42が存在する。なお、周辺物体42は、対象物体41の周辺に位置する対象物体41以外の全ての物体であり、例えば、山積みされた対象物体41を収容している容器や、その容器の周辺に置かれた物体も含む。
The robot 10 executes an action determined by the information processing device 20 and executes an operation of transporting or grasping the target object 41. In the present embodiment, the action is the action of the robot 10 for recognizing or manipulating the target object 41.
The target object 41 is a part such as a toner cartridge that is supposed to be gripped and transported by the robot 10, and may be wrapped in a plastic bag or cushioning material. That is, around the target object 41, there are peripheral objects 42 such as a plastic bag and a cushioning material that wrap the target object 41. The peripheral object 42 is all objects other than the target object 41 located around the target object 41. For example, the peripheral object 42 is placed in a container containing a pile of target objects 41 or in the vicinity of the container. Including objects.

また、ロボットシステム100は、撮像装置31と、光源32と、力覚センサ33と、位置検出センサ34とをさらに備える。
撮像装置31は、カメラや、光を検出するセンサ、フォトダイオードなどで構成される視覚センサであり、対象物体41および周辺物体42の画像情報を取得する。撮像装置31は、取得した画像情報を情報処理装置20に出力する。光源32は、例えばプロジェクタによって構成され、可視光を出射したり、レーザ光源から赤外光を出射したりすることで、対象物体41および周辺物体42に対して均一照明光やパターン光を投射する。撮像装置31は、光源32によって光が投射された対象物体41および周辺物体42の画像を撮像する。なお、撮像装置31は、光源32によって光が投射されていない状態で、対象物体41および周辺物体42の画像を撮像することもできる。撮像装置31および光源32は、図1に示すように、撮像対象空間の上方に固定配置してもよいし、ロボット10に搭載したり、他の作業機械に搭載したりしてもよい。また、撮像装置31は複数配置してもよい。
Further, the robot system 100 further includes an image pickup device 31, a light source 32, a force sensor 33, and a position detection sensor 34.
The image pickup device 31 is a visual sensor composed of a camera, a sensor for detecting light, a photodiode, and the like, and acquires image information of the target object 41 and the peripheral object 42. The image pickup apparatus 31 outputs the acquired image information to the information processing apparatus 20. The light source 32 is composed of, for example, a projector, and emits visible light or infrared light from a laser light source to project uniform illumination light or pattern light onto the target object 41 and peripheral objects 42. .. The image pickup apparatus 31 captures images of the target object 41 and the peripheral object 42 to which light is projected by the light source 32. The image pickup device 31 can also take an image of the target object 41 and the peripheral object 42 in a state where the light is not projected by the light source 32. As shown in FIG. 1, the image pickup apparatus 31 and the light source 32 may be fixedly arranged above the image pickup target space, may be mounted on the robot 10, or may be mounted on another work machine. Further, a plurality of image pickup devices 31 may be arranged.

力覚センサ33は、ロボット10のエンドエフェクタ11の基部に取り付けられている。この力覚センサ33は、歪みゲージや圧電素子によって構成され、ロボット10が対象物体41あるいは周辺物体42に接触しているときのロボット10にかかる力(反力)を計測し、計測結果である力覚情報を情報処理装置20へ出力する。力覚センサ33は、6軸力覚センサ(Force/Torqueセンサ)であってもよいし、3軸力覚センサであってもよい。また、力覚センサ33は、1次元の圧力センサであってもよいし、接触の有無を判別する接触センサであってもよい。 The force sensor 33 is attached to the base of the end effector 11 of the robot 10. The force sensor 33 is composed of a strain gauge and a piezoelectric element, and measures the force (reaction force) applied to the robot 10 when the robot 10 is in contact with the target object 41 or the peripheral object 42, which is a measurement result. The force sensor information is output to the information processing device 20. The force sensor 33 may be a 6-axis force sensor (Force / Torque sensor) or a 3-axis force sensor. Further, the force sensor 33 may be a one-dimensional pressure sensor or a contact sensor that determines the presence or absence of contact.

位置検出センサ34は、ロボット10の位置を検出し、検出結果である位置検出情報を情報処理装置20へ出力する。位置検出センサ34は、ロボット10に取り付けられたエンコーダを含んで構成され、エンコーダから取得した角度情報をもとに順運動学を用いることで、ロボット10の位置を検出することができる。この位置検出センサ34は、力覚センサ33と一緒に用いられることで、ロボット10が対象物体41や周辺物体42に接触しているときのロボット10の位置を検出することができる。なお、ロボット10の位置を検出する方法は、上記の位置検出センサ34を用いる方法に限定されない。 The position detection sensor 34 detects the position of the robot 10 and outputs the position detection information, which is the detection result, to the information processing device 20. The position detection sensor 34 is configured to include an encoder attached to the robot 10, and can detect the position of the robot 10 by using forward kinematics based on the angle information acquired from the encoder. The position detection sensor 34 can be used together with the force sensor 33 to detect the position of the robot 10 when the robot 10 is in contact with the target object 41 or the peripheral object 42. The method of detecting the position of the robot 10 is not limited to the method using the position detection sensor 34 described above.

情報処理装置20は、ロボット10の動作を制御するロボット制御装置である。情報処理装置20は、例えばパーソナルコンピュータ(PC)により構成されている。図2は、情報処理装置20のハードウェア構成の一例である。情報処理装置20は、CPU21と、ROM22と、RAM23と、外部メモリ24と、入力部25と、表示部26と、通信I/F27と、システムバス28とを備える。
CPU21は、情報処理装置20における動作を統括的に制御するものであり、システムバス28を介して、各構成部(22〜27)を制御する。ROM22は、CPU21が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM23は、CPU21の主メモリ、ワークエリアとして機能する。すなわち、CPU21は、処理の実行に際してROM22から必要なプログラムをRAM23にロードし、当該プログラムを実行することで各種の機能動作を実現する。
The information processing device 20 is a robot control device that controls the operation of the robot 10. The information processing device 20 is composed of, for example, a personal computer (PC). FIG. 2 is an example of the hardware configuration of the information processing device 20. The information processing device 20 includes a CPU 21, a ROM 22, a RAM 23, an external memory 24, an input unit 25, a display unit 26, a communication I / F 27, and a system bus 28.
The CPU 21 comprehensively controls the operation of the information processing apparatus 20, and controls each component (22 to 27) via the system bus 28. The ROM 22 is a non-volatile memory that stores a program required for the CPU 21 to execute a process. The program may be stored in an external memory 24 or a removable storage medium (not shown). The RAM 23 functions as a main memory and a work area of the CPU 21. That is, the CPU 21 loads a program required from the ROM 22 into the RAM 23 when executing the process, and executes the program to realize various functional operations.

外部メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、外部メモリ24には、例えば、CPU21がプログラムを用いた処理を行うことにより得られた各種データや各種情報が記憶される。入力部25は、例えばキーボードやマウスのポインティングデバイスにより構成され、オペレータが入力部25を介して当該情報処理装置20に指示を与えることができるようになっている。表示部26は、液晶ディスプレイ(LCD)等のモニタで構成される。通信I/F27は、外部機器と通信するためのインターフェースである。システムバス28は、CPU21、ROM22、RAM23、外部メモリ24、入力部25、表示部26及び通信I/F27を通信可能に接続する。
このように、情報処理装置20は、通信I/F27を介して、外部機器であるロボット10、撮像装置31、光源32、力覚センサ33とそれぞれ通信可能に接続されており、これらの外部機器の動作を制御する。
The external memory 24 stores, for example, various data and various information necessary for the CPU 21 to perform processing using a program. Further, in the external memory 24, for example, various data and various information obtained by the CPU 21 performing processing using a program are stored. The input unit 25 is composed of, for example, a keyboard or mouse pointing device, and an operator can give an instruction to the information processing device 20 via the input unit 25. The display unit 26 is composed of a monitor such as a liquid crystal display (LCD). The communication I / F 27 is an interface for communicating with an external device. The system bus 28 communicatively connects the CPU 21, ROM 22, RAM 23, external memory 24, input unit 25, display unit 26, and communication I / F 27.
In this way, the information processing device 20 is communicably connected to the robot 10, the image pickup device 31, the light source 32, and the force sensor 33, which are external devices, via the communication I / F 27, and these external devices are connected to each other. Control the operation of.

図3は、情報処理装置20の機能ブロック図である。
情報処理装置20は、画像取得部201と、表面位置計測部202と、地図情報作成部203と、計測位置決定部204と、行動計画部205と、を備える。さらに、情報処理装置20は、力覚情報取得部206と、力計測部207と、位置情報取得部208と、位置計測部209と、把持位置決定部210と、を備える。表面位置計測部202、地図情報作成部203、計測位置決定部204、力計測部207および位置計測部209によって、対象物体41の位置および姿勢を認識する処理を行う認識部220を構成している。この認識部220は物体認識装置として動作することができる。
画像取得部201は、撮像装置31から出力される画像情報を取得する。画像取得部201は、取得した画像情報を画像データに変換し、表面位置計測部202に出力する。画像取得部201は、例えばキャプチャボードやメモリ(RAM)によって構成される。表面位置計測部202は、画像取得部201から取得した画像データに基づいて、対象物体41および周辺物体42の表面位置の情報(表面位置情報)を計測する。表面位置計測部202は、計測した表面位置情報を地図情報作成部203へ出力する。
FIG. 3 is a functional block diagram of the information processing device 20.
The information processing device 20 includes an image acquisition unit 201, a surface position measurement unit 202, a map information creation unit 203, a measurement position determination unit 204, and an action planning unit 205. Further, the information processing device 20 includes a force sense information acquisition unit 206, a force measurement unit 207, a position information acquisition unit 208, a position measurement unit 209, and a gripping position determination unit 210. The surface position measurement unit 202, the map information creation unit 203, the measurement position determination unit 204, the force measurement unit 207, and the position measurement unit 209 constitute a recognition unit 220 that performs processing for recognizing the position and orientation of the target object 41. .. The recognition unit 220 can operate as an object recognition device.
The image acquisition unit 201 acquires image information output from the image pickup apparatus 31. The image acquisition unit 201 converts the acquired image information into image data and outputs it to the surface position measurement unit 202. The image acquisition unit 201 is composed of, for example, a capture board and a memory (RAM). The surface position measuring unit 202 measures the surface position information (surface position information) of the target object 41 and the peripheral object 42 based on the image data acquired from the image acquisition unit 201. The surface position measuring unit 202 outputs the measured surface position information to the map information creating unit 203.

地図情報作成部203は、表面位置計測部202によって計測された表面位置情報と、後述する力計測部207によって計測された力情報と、後述する位置計測部209によって計測された位置情報とに基づいて地図情報を作成する。なお、地図情報作成部203は、位置計測部209を介して力計測部207によって計測された力情報を取得する。地図情報とは、対象物体41および周辺物体42の空間的な位置情報であり、本実施形態では、3次元の空間内における対象物体41および周辺物体42の位置情報とする。地図情報作成部203は、まず、表面位置情報に基づいて地図情報を作成し、その後、力情報と位置情報とに基づいて、表面位置情報に基づいて作成した地図情報を更新することで、詳細な地図情報を作成する。 The map information creating unit 203 is based on the surface position information measured by the surface position measuring unit 202, the force information measured by the force measuring unit 207 described later, and the position information measured by the position measuring unit 209 described later. Create map information. The map information creation unit 203 acquires the force information measured by the force measurement unit 207 via the position measurement unit 209. The map information is spatial position information of the target object 41 and the peripheral object 42, and in the present embodiment, it is the position information of the target object 41 and the peripheral object 42 in the three-dimensional space. The map information creation unit 203 first creates map information based on the surface position information, and then updates the map information created based on the surface position information based on the force information and the position information in detail. Create map information.

画像データをもとに計測された表面位置情報により、対象物体41および周辺物体42の表面位置を求めることができる。しかしながら、上述したように、対象物体41がビニール袋に包まれたトナーカートリッジである場合、表面位置情報により求まる表面位置は、ビニール袋の表面位置でありトナーカートリッジの表面位置ではない。このように、画像データをもとに計測される表面位置情報からは、対象物体41の正確な位置および姿勢を求めることができない場合がある。 The surface positions of the target object 41 and the peripheral objects 42 can be obtained from the surface position information measured based on the image data. However, as described above, when the target object 41 is a toner cartridge wrapped in a plastic bag, the surface position obtained from the surface position information is the surface position of the plastic bag, not the surface position of the toner cartridge. As described above, it may not be possible to obtain the accurate position and orientation of the target object 41 from the surface position information measured based on the image data.

そこで、本実施形態では、より正確に対象物体41を認識するために、ロボット10により対象物体41に直接触れ、対象物体41を計測する。具体的には、力覚センサ33および位置検出センサ34を用いて、ロボット10が対象物体41に接触したときのロボット10の位置情報(接触位置情報)を計測する。そして、計測したロボット10の位置情報を用いて地図情報を更新する。つまり、地図情報作成部203は、地図情報の作成にあたり、撮像装置31を用いて計測した対象物体41の表面位置に対して、力覚センサ33および位置検出センサ34を用いて実際に対象物体41に触って計測した、対象物体41の詳細位置の結果を加える。このようにして、対象物体41の位置および姿勢をより詳細に計測する。地図情報作成部203は、作成した地図情報を、計測位置決定部204や把持位置決定部210に出力する。 Therefore, in the present embodiment, in order to recognize the target object 41 more accurately, the robot 10 directly touches the target object 41 and measures the target object 41. Specifically, the force sensor 33 and the position detection sensor 34 are used to measure the position information (contact position information) of the robot 10 when the robot 10 comes into contact with the target object 41. Then, the map information is updated using the measured position information of the robot 10. That is, when creating the map information, the map information creation unit 203 actually uses the force sensor 33 and the position detection sensor 34 with respect to the surface position of the target object 41 measured by using the imaging device 31. The result of the detailed position of the target object 41 measured by touching is added. In this way, the position and orientation of the target object 41 are measured in more detail. The map information creation unit 203 outputs the created map information to the measurement position determination unit 204 and the grip position determination unit 210.

計測位置決定部204は、地図情報作成部203から入力した地図情報に基づいて、対象物体41の詳細な位置および姿勢を実測するための計測位置を決定する。この計測位置決定部204に入力される地図情報は、地図情報作成部203により表面位置情報に基づいて作成された地図情報である。計測位置決定部204は、入力された地図情報を参照し、対象物体41の存在確率が高いと判断した位置を計測位置として決定する。計測位置決定部204は、決定した計測位置を行動計画部205に出力する。 The measurement position determination unit 204 determines the measurement position for actually measuring the detailed position and posture of the target object 41 based on the map information input from the map information creation unit 203. The map information input to the measurement position determination unit 204 is the map information created by the map information creation unit 203 based on the surface position information. The measurement position determination unit 204 refers to the input map information and determines the position determined to have a high existence probability of the target object 41 as the measurement position. The measurement position determination unit 204 outputs the determined measurement position to the action planning unit 205.

行動計画部205は、計測位置決定部204から入力した計測位置に基づいて、ロボット10の行動を計画する。具体的には、行動計画部205は、エンドエフェクタ11を計測位置に移動するためのロボット10の軌道と、計測位置における対象物体41への接触動作を実現するためのロボット10の軌道とを作成し、ロボット10へ動作指示情報を出力する。また、行動計画部205は、後述する把持位置決定部210から対象物体41の把持位置も入力可能である。行動計画部205は、把持位置を入力した場合、入力した把持位置に基づいてロボット10の行動を計画する。具体的には、行動計画部205は、エンドエフェクタ11を把持位置に移動するためのロボット10の軌道と、把持位置における対象物体41の把持動作を実現するためのロボット10の軌道とを作成し、ロボット10へ動作指示情報を出力する。 The action planning unit 205 plans the action of the robot 10 based on the measurement position input from the measurement position determination unit 204. Specifically, the action planning unit 205 creates a trajectory of the robot 10 for moving the end effector 11 to the measurement position and a trajectory of the robot 10 for realizing a contact operation with the target object 41 at the measurement position. Then, the operation instruction information is output to the robot 10. Further, the action planning unit 205 can also input the gripping position of the target object 41 from the gripping position determining unit 210 described later. When the gripping position is input, the action planning unit 205 plans the action of the robot 10 based on the input gripping position. Specifically, the action planning unit 205 creates a trajectory of the robot 10 for moving the end effector 11 to the gripping position and a trajectory of the robot 10 for realizing the gripping operation of the target object 41 at the gripping position. , Outputs operation instruction information to the robot 10.

力覚情報取得部206は、力覚センサ33から出力される力覚情報を取得し、取得した力覚情報を力計測部207へ出力する。力覚情報取得部206は、例えばメモリ(RAM)によって構成される。力計測部207は、力覚情報取得部206から入力した力覚情報に基づいて、対象物体41あるいは周辺物体42にロボット10のエンドエフェクタ11が接触しているときのロボット10にかかる力(反力)を計測する。力計測部207は、計測した力情報を位置計測部209に出力する。 The force sense information acquisition unit 206 acquires the force sense information output from the force sense sensor 33, and outputs the acquired force sense information to the force measurement unit 207. The force sense information acquisition unit 206 is composed of, for example, a memory (RAM). The force measuring unit 207 applies a force (anti-force) applied to the robot 10 when the end effector 11 of the robot 10 is in contact with the target object 41 or the peripheral object 42 based on the force sense information input from the force sense information acquisition unit 206. Force) is measured. The force measuring unit 207 outputs the measured force information to the position measuring unit 209.

位置情報取得部208は、位置検出センサ34から出力される位置検出情報を取得し、取得した位置検出情報を位置計測部209へ出力する。位置情報取得部208は、例えばメモリ(RAM)によって構成される。位置計測部209は、力計測部207から入力した力情報と、位置情報取得部208から入力した位置検出情報とに基づいて、対象物体41あるいは周辺物体42にロボット10のエンドエフェクタ11が接触しているときの接触点の位置を計測する。位置計測部209は、計測した位置情報(接触位置情報)を地図情報作成部203に出力する。 The position information acquisition unit 208 acquires the position detection information output from the position detection sensor 34, and outputs the acquired position detection information to the position measurement unit 209. The position information acquisition unit 208 is composed of, for example, a memory (RAM). The position measurement unit 209 contacts the end effector 11 of the robot 10 with the target object 41 or the peripheral object 42 based on the force information input from the force measurement unit 207 and the position detection information input from the position information acquisition unit 208. Measure the position of the contact point when you are. The position measurement unit 209 outputs the measured position information (contact position information) to the map information creation unit 203.

把持位置決定部210は、地図情報作成部203から出力される地図情報をもとに、対象物体41の把持位置を決定する。この把持位置決定部210に入力される地図情報は、地図情報作成部203により力情報および位置情報に基づいて作成された詳細な地図情報である。把持位置決定部210は、入力された地図情報を参照し、ロボット10が対象物体41を把持可能な位置を把持位置として決定する。把持位置決定部210は、決定した把持位置を行動計画部205に出力する。
図3に示す情報処理装置20の各部の機能は、図2に示すCPU21がROM22もしくは外部メモリ24に記憶されたプログラムを実行することで実現され得る。
The gripping position determining unit 210 determines the gripping position of the target object 41 based on the map information output from the map information creating unit 203. The map information input to the gripping position determination unit 210 is detailed map information created by the map information creation unit 203 based on the force information and the position information. The gripping position determining unit 210 refers to the input map information and determines the position where the robot 10 can grip the target object 41 as the gripping position. The gripping position determining unit 210 outputs the determined gripping position to the action planning unit 205.
The functions of each part of the information processing apparatus 20 shown in FIG. 3 can be realized by the CPU 21 shown in FIG. 2 executing a program stored in the ROM 22 or the external memory 24.

以下、ロボットシステム100の動作について説明する。
図4は、情報処理装置20が実行するロボット制御処理手順を示すフローチャートである。図4に示される処理は、情報処理装置20のCPU21が、ROM22もしくは外部メモリ24に格納されたプログラムを読み出して実行することにより実現される。ただし、図4の処理の一部または全部が、専用のハードウェアにより実現されてもよい。図4の処理は、例えばオペレータがロボットシステム100を起動したときに開始される。ただし、開始のタイミングは、ロボットシステム100の起動時に限定されるものではない。
The operation of the robot system 100 will be described below.
FIG. 4 is a flowchart showing a robot control processing procedure executed by the information processing device 20. The process shown in FIG. 4 is realized by the CPU 21 of the information processing device 20 reading and executing a program stored in the ROM 22 or the external memory 24. However, part or all of the processing of FIG. 4 may be realized by dedicated hardware. The process of FIG. 4 is started, for example, when the operator activates the robot system 100. However, the start timing is not limited to when the robot system 100 is started.

先ずS1において、CPU21は、システムの初期化処理を行う。すなわち、CPU21は、ROM22もしくは外部メモリ24に格納されたプログラムをロードし、RAM23上に展開して実行可能な状態とする。また、情報処理装置20に接続された各機器のパラメータの読み込みや初期位置への復帰を行い、使用可能な状態にする。
次にS2において、画像処理部201は、撮像装置31が出力する対象物体41および周辺物体42の画像情報を取得し、S3に移行する。S3では、表面位置計測部202は、S2において画像処理部201が取得した画像情報に基づいて、対象物体41および周辺物体42の表面位置を計測する。撮像装置31から得られる画像情報は、3次元点群の情報であるため、表面位置計測部202は、取得した画像情報に基づいて、対象物体41および周辺物体42の表面の凹凸を認識することができる。なお、予め外部メモリ24等に格納された部品データベース(部品DB)を参照して、対象物体41および周辺物体42の表面位置を決定してもよい。部品DBは、認識の対象である対象物体41の部品種および形状の情報を保持している。部品DBに格納される対象物体41の形状の情報は、例えばCADデータやCGデータ(ポリゴンデータ)などの3次元モデルデータである。なお、部品DBに格納される対象物体の形状の情報は、対象物体41や周辺物体42を多方向から観察した2次元画像の集合から構成されていてもよい。
First, in S1, the CPU 21 performs a system initialization process. That is, the CPU 21 loads the program stored in the ROM 22 or the external memory 24 and expands it on the RAM 23 so that it can be executed. In addition, the parameters of each device connected to the information processing device 20 are read and returned to the initial position to make them usable.
Next, in S2, the image processing unit 201 acquires the image information of the target object 41 and the peripheral object 42 output by the image pickup apparatus 31, and shifts to S3. In S3, the surface position measuring unit 202 measures the surface positions of the target object 41 and the peripheral object 42 based on the image information acquired by the image processing unit 201 in S2. Since the image information obtained from the image pickup apparatus 31 is information of a three-dimensional point cloud, the surface position measuring unit 202 recognizes the unevenness of the surfaces of the target object 41 and the peripheral object 42 based on the acquired image information. Can be done. The surface positions of the target object 41 and the peripheral objects 42 may be determined by referring to the component database (component DB) previously stored in the external memory 24 or the like. The component DB holds information on the component type and shape of the target object 41 to be recognized. The shape information of the target object 41 stored in the component DB is, for example, three-dimensional model data such as CAD data and CG data (polygon data). The shape information of the target object stored in the component DB may be composed of a set of two-dimensional images obtained by observing the target object 41 and the peripheral objects 42 from multiple directions.

S4では、地図情報作成部203は、S3において表面位置計測部202が計測した表面位置情報に基づいて地図情報を作成する。以下、地図情報の作成方法について具体的に説明する。地図情報を作成するためには、複数の異なるセンサから得られた情報を一つの空間的な地図情報に落としこむ必要がある。しかしながら、撮像装置31の撮像装置座標系、力覚センサ33の力覚センサ座標系、ロボット10のロボット座標系は全て異なる。そのため、これらの座標系を統一する必要がある。 In S4, the map information creation unit 203 creates map information based on the surface position information measured by the surface position measurement unit 202 in S3. Hereinafter, the method of creating map information will be specifically described. In order to create map information, it is necessary to combine the information obtained from a plurality of different sensors into one spatial map information. However, the image pickup device coordinate system of the image pickup device 31, the force sensor coordinate system of the force sensor 33, and the robot coordinate system of the robot 10 are all different. Therefore, it is necessary to unify these coordinate systems.

まず、作業空間内で基準となる座標系として、ワールド座標系Σwを設定する。そして、ワールド座標系Σwからロボット座標系Σrまでの変位を(RX,RY,RZ)とする。また、ロボット10の姿勢を表す3×3の回転行列をRMとする。
ロボット座標系Σrからロボット10の先端座標系Σfまでの変位は(FX,FY,FZ)とする。また、ロボット10の先端の姿勢を表す3×3の回転行列はFMとする。さらに、先端座標系Σfからロボット10のエンドエフェクタ11先端の座標系Σeまでの変位は(EX,EY,EZ)とする。また、エンドエフェクタ11先端の姿勢を表す3×3の回転行列はEMとする。なお、エンドエフェクタ11先端とは、対象物体41あるいは周辺物体42に接触する部分である。
First, the world coordinate system Σw is set as a reference coordinate system in the work space. Then, the displacement from the world coordinate system Σw to the robot coordinate system Σr is defined as (RX, RY, RZ). Further, let RM be a 3 × 3 rotation matrix representing the posture of the robot 10.
The displacement from the robot coordinate system Σr to the tip coordinate system Σf of the robot 10 is (FX, FY, FZ). Further, the 3 × 3 rotation matrix representing the posture of the tip of the robot 10 is FM. Further, the displacement from the tip coordinate system Σf to the coordinate system Σe at the tip of the end effector 11 of the robot 10 is (EX, EY, EZ). Further, the 3 × 3 rotation matrix representing the posture of the tip of the end effector 11 is EM. The tip of the end effector 11 is a portion that comes into contact with the target object 41 or the peripheral object 42.

ロボット10の先端座標系Σfから力覚センサ座標系Σtまでの変位は(TX,TY,TZ)とする。また、力覚センサ33の姿勢を表す3×3の回転行列はTMとする。さらに、ロボット座標系Σrから撮像装置座標系Σcまでの変位は(CX,CY,CZ)とする。また、撮像装置31の姿勢を表す3×3の回転行列はCMとする。さらに、撮像装置座標系Σcから対象物体座標系Σvまでの変位は(VX,VY,VZ)とする。また、対象物体41の姿勢を表す3×3の回転行列はVMとする。ここで、ワールド座標系Σwから見た対象物体41の変位を(WX,WY,WZ)、姿勢を表す3×3の回転行列をWMとする。
ロボット10が対象物体41に接触しているとき、ロボット10の先端に取り付けられたエンドエフェクタ11先端の位置は、撮像装置31により撮影された対象物体41の位置と一致する。したがって、以下の(1)式および(2)式が成り立つ。
The displacement from the tip coordinate system Σf of the robot 10 to the force sensor coordinate system Σt is (TX, TY, TZ). Further, the rotation matrix of 3 × 3 representing the posture of the force sensor 33 is TM. Further, the displacement from the robot coordinate system Σr to the image pickup device coordinate system Σc is (CX, CY, CZ). Further, the 3 × 3 rotation matrix representing the posture of the image pickup apparatus 31 is CM. Further, the displacement from the image pickup device coordinate system Σc to the target object coordinate system Σv is (VX, VY, VZ). Further, the rotation matrix of 3 × 3 representing the posture of the target object 41 is VM. Here, the displacement of the target object 41 as seen from the world coordinate system Σw is (WX, WY, WZ), and the 3 × 3 rotation matrix representing the posture is WM.
When the robot 10 is in contact with the target object 41, the position of the tip of the end effector 11 attached to the tip of the robot 10 coincides with the position of the target object 41 photographed by the imaging device 31. Therefore, the following equations (1) and (2) hold.

Figure 0006752615
なお、ワールド座標系Σwから見た、接触動作時にロボット10にかかる力を4×4の行列WTとおくと、行列WTは以下の式で求まる。この(3)式を用いて、力の方向をワールド座標系Σwで考慮することができる。
Figure 0006752615
If the force applied to the robot 10 during the contact operation as seen from the world coordinate system Σw is a 4 × 4 matrix WT, the matrix WT can be obtained by the following equation. Using this equation (3), the direction of force can be considered in the world coordinate system Σw.

Figure 0006752615
Figure 0006752615

地図情報作成部203は、以上の定義の下で、地図情報を作成する。つまり、地図情報作成部203は、上記(1)〜(3)式を用いて、異なる複数のセンサの座標系を統一し、座標系が統一されたら、各センサから得られた情報を利用して地図情報を作成していく。
S4では、地図情報作成部203は、まず、ワールド座標系Σwの作業空間に対してボクセルを配置する。ここで、ボクセルの存在する領域は、対象物体41あるいは周辺物体42が存在する可能性のある領域とする。また、ボクセルの大きさは、対象物体41の把持動作に必要な精度に応じて適宜設定される。
次に、地図情報作成部203は、表面位置情報を用いて、対象物体41と周辺物体42との表面位置よりも外側に存在するボクセルを全て削る処理を行う。表面位置情報は3次元点群データであり、この表面位置情報は、撮像装置座標系Σcの情報として求まるので、対象物体41の表面位置は、上記(2)式を用いてワールド座標系Σwに変換することができる。ワールド座標系Σwに配置されたボクセル内に点群が存在する場合、そのボクセルは削られる対象となる。ボクセルが削られた領域は物体が存在しない部分として処理される。以上により、対象物体41と周辺物体42とがおおよそ存在する空間を示す地図情報が作成される。
The map information creation unit 203 creates map information under the above definition. That is, the map information creation unit 203 unifies the coordinate systems of a plurality of different sensors by using the above equations (1) to (3), and when the coordinate systems are unified, the information obtained from each sensor is used. And create map information.
In S4, the map information creation unit 203 first arranges voxels with respect to the work space of the world coordinate system Σw. Here, the region where the voxels exist is a region where the target object 41 or the peripheral object 42 may exist. Further, the size of the voxel is appropriately set according to the accuracy required for the gripping operation of the target object 41.
Next, the map information creation unit 203 uses the surface position information to perform a process of scraping all voxels existing outside the surface positions of the target object 41 and the peripheral object 42. Since the surface position information is three-dimensional point cloud data, and this surface position information can be obtained as information in the image pickup device coordinate system Σc, the surface position of the target object 41 can be determined in the world coordinate system Σw using the above equation (2). Can be converted. If a point cloud exists in the voxels arranged in the world coordinate system Σw, the voxels are to be deleted. The area where the voxels are removed is treated as a part where no object exists. As described above, map information indicating the space in which the target object 41 and the peripheral object 42 roughly exist is created.

S5では、計測位置決定部204は、S4において作成された地図情報に基づいて、対象物体41の計測位置を決定する。具体的には、計測位置決定部204は、地図情報を参照し、対象物体41および周辺物体42の表面の凹凸に関する情報をもとに、表面が凸形状である部分を選択する。そして、選択した部分は対象物体41の存在確率が高い部分であるとして、対象物体41を詳細に計測するための計測位置として決定する。なお、部品DBを利用して対象物体41の位置を推測できている場合、推測した位置をもとに計測位置を決定してもよい。このように、部品DBにより、対象物体41のおおまかな位置および姿勢を推測できる場合には、推測した位置および姿勢が正しいか否かを直接触って確認するための計測位置を決定する。 In S5, the measurement position determination unit 204 determines the measurement position of the target object 41 based on the map information created in S4. Specifically, the measurement position determination unit 204 selects a portion having a convex surface based on the information on the unevenness of the surface of the target object 41 and the peripheral object 42 with reference to the map information. Then, assuming that the selected portion is a portion having a high existence probability of the target object 41, it is determined as a measurement position for measuring the target object 41 in detail. If the position of the target object 41 can be estimated using the component DB, the measurement position may be determined based on the estimated position. In this way, when the rough position and posture of the target object 41 can be estimated from the component DB, the measurement position for directly contacting and confirming whether or not the estimated position and orientation are correct is determined.

S6では、行動計画部205は、S5において計測位置決定部204が決定した計測位置に基づいて、計測位置による計測を実現するためのロボット10の行動計画を決定する。次にS7では、行動計画部205は、S6において決定した行動計画に基づいて、ロボット10へ動作指示情報を出力する。これにより、ロボット10は、エンドエフェクタ11を計測位置まで移動し、計測位置において対象物体41に対する接触動作を行う。このときのロボット10の動作は、単にエンドエフェクタ11が表面位置計測部202で計測した表面位置まで移動するだけではなく、表面位置よりさらに深く移動しながら力覚情報の取得も行う動作である。図5(a)に示すように、対象物体41がビニール袋や緩衝材といった周辺物体42に包まれている場合、エンドエフェクタ11は、図5(b)に示すように周辺物体42を押しつぶしながら移動する。 In S6, the action planning unit 205 determines the action plan of the robot 10 for realizing the measurement by the measurement position based on the measurement position determined by the measurement position determination unit 204 in S5. Next, in S7, the action planning unit 205 outputs the action instruction information to the robot 10 based on the action plan determined in S6. As a result, the robot 10 moves the end effector 11 to the measurement position and makes a contact operation with the target object 41 at the measurement position. The operation of the robot 10 at this time is not only the operation of the end effector 11 moving to the surface position measured by the surface position measuring unit 202, but also the operation of acquiring force sense information while moving deeper than the surface position. As shown in FIG. 5 (a), when the target object 41 is wrapped in a peripheral object 42 such as a plastic bag or a cushioning material, the end effector 11 crushes the peripheral object 42 as shown in FIG. 5 (b). Moving.

S8では、力覚情報取得部206は、力覚センサ33が出力する力覚情報を取得する。また、位置情報取得部208は、力覚情報取得部206による力覚情報の取得に同期して、位置検出センサ34が出力する位置検出情報を取得する。S9では、力計測部207は、S8において力覚情報取得部206が取得した力覚情報に基づいて、ロボット10にかかる力を示す力情報を計測する。また、位置計測部209は、S8において位置情報取得部208が取得した位置検出情報に基づいて、ロボット10の位置を示す位置情報を計測する。 In S8, the force sense information acquisition unit 206 acquires the force sense information output by the force sense sensor 33. Further, the position information acquisition unit 208 acquires the position detection information output by the position detection sensor 34 in synchronization with the acquisition of the force sense information by the force sense information acquisition unit 206. In S9, the force measuring unit 207 measures the force information indicating the force applied to the robot 10 based on the force sense information acquired by the force sense information acquisition unit 206 in S8. Further, the position measurement unit 209 measures the position information indicating the position of the robot 10 based on the position detection information acquired by the position information acquisition unit 208 in S8.

力情報および位置情報は、ロボット10が対象物体41に対する接触動作を行っている間、繰り返し計測してもよい。その場合、図4に示すフローチャートでは、S7〜S9を一方向の流れとして書いているが、S7からS8、S8からS9、S9からS7と、S7〜S9の処理を高速に繰り返す。つまり、ロボット10は移動しながら力覚情報・位置情報を取得し、力計測・位置計測を行う。さらに、S7〜S9に限らず、S10の地図情報の更新も行ってもよい。その場合は、S9からS7に戻るのではなく、S7からS8、S8からS9、S9からS10、S10からS7という処理の流れを高速に繰り返す。ここで、上記接触動作は、ロボット10にかかる力の大きさが、予め設定された上限値を超えない範囲で実施するものとする。ロボット10にかかる力の大きさが上限値を超えたか否かは、S9において計測される力情報に基づいて判定する。接触動作を行う中で、ロボット10にかかる力は、対象物体41への接触力に応じて増加する。そこで、上記の力の上限値は、接触動作により対象物体41に破損等の不具合が生じない程度の力に設定する。例えば、対象物体41がビニール袋に包まれたトナーカートリッジである場合、ビニール袋を潰しトナーカートリッジを壊さない程度の力を上限値として設定する。 The force information and the position information may be repeatedly measured while the robot 10 makes a contact operation with the target object 41. In that case, in the flowchart shown in FIG. 4, S7 to S9 are written as a one-way flow, but the processes of S7 to S8, S8 to S9, S9 to S7, and S7 to S9 are repeated at high speed. That is, the robot 10 acquires force sense information / position information while moving, and performs force measurement / position measurement. Further, not only S7 to S9 but also the map information of S10 may be updated. In that case, instead of returning from S9 to S7, the processing flow of S7 to S8, S8 to S9, S9 to S10, and S10 to S7 is repeated at high speed. Here, the contact operation is performed within a range in which the magnitude of the force applied to the robot 10 does not exceed a preset upper limit value. Whether or not the magnitude of the force applied to the robot 10 exceeds the upper limit value is determined based on the force information measured in S9. During the contact operation, the force applied to the robot 10 increases according to the contact force with the target object 41. Therefore, the upper limit value of the above force is set to a force that does not cause a problem such as damage to the target object 41 due to the contact operation. For example, when the target object 41 is a toner cartridge wrapped in a plastic bag, a force that does not crush the plastic bag and break the toner cartridge is set as the upper limit value.

ロボット10がビニール袋を潰してトナーカートリッジの表面に当接し、ロボット10にかかる力が上限値に達すると、情報処理装置20はロボット10の接触動作を停止する。接触動作を停止した時点でのロボット10の位置は、対象物体41の実際の表面位置として認識することができる。
S10では、地図情報作成部203は、S9において計測した力情報および位置情報に基づいて、S4において作成された地図情報を更新し、新たな地図情報を作成する。S10では、地図情報作成部203は、S9において取得した位置情報を、計測位置において実際にロボット10が動作した結果として利用する。そして、S4において作成した地図情報に対して、ロボット10自身が動いた空間に該当するボクセルを削る処理を行う。
When the robot 10 crushes the plastic bag and comes into contact with the surface of the toner cartridge and the force applied to the robot 10 reaches the upper limit value, the information processing device 20 stops the contact operation of the robot 10. The position of the robot 10 when the contact operation is stopped can be recognized as the actual surface position of the target object 41.
In S10, the map information creation unit 203 updates the map information created in S4 based on the force information and the position information measured in S9, and creates new map information. In S10, the map information creation unit 203 uses the position information acquired in S9 as a result of the robot 10 actually operating at the measurement position. Then, the map information created in S4 is processed to remove the voxels corresponding to the space in which the robot 10 itself has moved.

その際、地図情報作成部203は、予め保持されたロボット10の3次元モデル情報を用い、関節角度データから順運動学をもとに各時刻においてロボット10が専有している位置(専有位置)を計算する。エンドエフェクタ11部分についても同様に、予め保持したエンドエフェクト11の3次元モデル情報を用い、ロボット10先端の位置および姿勢から専有位置を計算する。このように、上記専有位置は、ロボット10に設置した位置検出センサ34から得られる位置検出情報であるロボット10の各関節角度のデータをもとに計算することができる。その際、前述の座標系の統一処理と同様に、リンク間長さから変位の並進ベクトルを求め、関節角度から3×3の回転行列を求め、順運動学を用いる。これにより、ロボット10の3次元での位置および姿勢、つまりロボット座標系Σrからロボット10の先端座標系Σfまでの変位(FX,FY,FZ)と回転行列FMとを求めることができる。 At that time, the map information creation unit 203 uses the three-dimensional model information of the robot 10 held in advance, and the position (proprietary position) that the robot 10 occupies at each time based on the forward kinematics from the joint angle data. To calculate. Similarly, for the end effector 11 portion, the exclusive position is calculated from the position and posture of the tip of the robot 10 by using the three-dimensional model information of the end effect 11 held in advance. As described above, the exclusive position can be calculated based on the data of each joint angle of the robot 10 which is the position detection information obtained from the position detection sensor 34 installed in the robot 10. At that time, as in the above-mentioned unified processing of the coordinate system, the translational vector of the displacement is obtained from the length between the links, the rotation matrix of 3 × 3 is obtained from the joint angle, and forward kinematics is used. As a result, the three-dimensional position and orientation of the robot 10, that is, the displacement (FX, FY, FZ) from the robot coordinate system Σr to the tip coordinate system Σf of the robot 10 and the rotation matrix FM can be obtained.

上記により求まる専有位置は、前述の座標系の統一によってワールド座標系Σwにおける位置情報として計算される。そのため、計算された専有位置に該当するボクセルを削ることができる。ロボット10が対象物体41あるいは周辺物体42に接触している場合でも、力計測部207で計測している力が上限値よりも小さい場合は、ロボット10は動き続ける。したがって、この場合、地図情報作成部203は、ロボット10が対象物体41にはまだ完全に接触していないと判断し、ロボット10が動き続けると同時に空間的な掃引を行い、ボクセルを削っていく。対象物体41がビニール袋のようなもので包まれている場合、ビニール袋のみが存在する空間では、エンドエフェクタ11がビニール袋を押し潰すことでロボット10は動作を継続する。そのため、ビニール袋のみが存在する空間に対応するボクセル内の領域は削られることになる。 The exclusive position obtained by the above is calculated as position information in the world coordinate system Σw by unifying the coordinate system described above. Therefore, the voxel corresponding to the calculated exclusive position can be removed. Even when the robot 10 is in contact with the target object 41 or the peripheral object 42, if the force measured by the force measuring unit 207 is smaller than the upper limit value, the robot 10 continues to move. Therefore, in this case, the map information creation unit 203 determines that the robot 10 has not yet completely contacted the target object 41, and at the same time as the robot 10 continues to move, spatially sweeps and scrapes the voxels. .. When the target object 41 is wrapped with something like a plastic bag, the robot 10 continues to operate by the end effector 11 crushing the plastic bag in the space where only the plastic bag exists. Therefore, the area in the voxel corresponding to the space where only the plastic bag exists will be scraped.

ロボット10が対象物体41に接触し、ロボット10にかかる力が上限値に達すると、その時点でロボット10は動作を止める。このとき、地図情報作成部203は、ボクセルを削る処理を止め、接触箇所までに掃引した空間は物体がなく、接触した位置は物体があると判断して、地図情報の作成を終了する。
なお、地図情報の作成にあたっては、ボクセルを配置しない手法を用いてもよい。例えば、3次元点群データである表面位置情報を面形式データに変換し、ポリゴンを用いて対象物体41や周辺物体42の表面位置を表現してもよい。この場合、ポリゴンにより作成された表面位置情報を初期値として、ロボット10が掃引した空間に対する3次元の位置情報をもとに表面生成を行い、地図情報を作成してもよい。また2次元で地図情報を作成する場合には、ボクセルではなくピクセルを用いて、2次元平面上において上記と同様の手法を用いて地図情報を作成してもよい。
When the robot 10 comes into contact with the target object 41 and the force applied to the robot 10 reaches the upper limit value, the robot 10 stops the operation at that point. At this time, the map information creation unit 203 stops the process of scraping the voxels, determines that there is no object in the space swept up to the contact point, and that there is an object at the contacted position, and ends the map information creation.
In creating the map information, a method in which voxels are not arranged may be used. For example, the surface position information which is the three-dimensional point cloud data may be converted into the surface format data, and the surface positions of the target object 41 and the peripheral objects 42 may be expressed by using polygons. In this case, the surface position information created by the polygons may be used as an initial value, and the surface may be generated based on the three-dimensional position information with respect to the space swept by the robot 10 to create map information. Further, when creating map information in two dimensions, map information may be created on a two-dimensional plane by using the same method as above, using pixels instead of voxels.

S11では、把持位置決定部210は、S10における地図情報の作成結果をもとに、ロボット10のエンドエフェクタ11によって対象物体41を把持可能であるか否かを判定する。そして、把持が可能である場合には計測を終了すると判断し、把持が不可能である場合には計測を継続すると判断する。
具体的には、地図情報をもとに把持対象となる対象物体41の位置および姿勢を推定し、推定した対象物体41の位置および姿勢と、ロボット10のエンドエフェクタ11の形状とに基づいて把持可否を判断する。エンドエフェクタ11が対象物体41の側面を上方から挟んで把持する場合、エンドエフェクタ11が対象物体41の側面に入り込む必要がある。その場合、まず、地図情報をもとに、対象物体41の上にロボット10が移動できる空間があるか否かを判断する。空間の有無は、地図情報において、ボクセルが取り除かれているか否かで判断する。
In S11, the gripping position determining unit 210 determines whether or not the target object 41 can be gripped by the end effector 11 of the robot 10 based on the result of creating the map information in S10. Then, it is determined that the measurement is completed when the grip is possible, and it is determined that the measurement is continued when the grip is not possible.
Specifically, the position and posture of the target object 41 to be gripped are estimated based on the map information, and the grip is performed based on the estimated position and posture of the target object 41 and the shape of the end effector 11 of the robot 10. Judge whether it is possible or not. When the end effector 11 sandwiches and grips the side surface of the target object 41 from above, the end effector 11 needs to enter the side surface of the target object 41. In that case, first, based on the map information, it is determined whether or not there is a space in which the robot 10 can move on the target object 41. The presence or absence of space is determined by whether or not voxels have been removed from the map information.

空間がある場合、ロボット10が対象物体41の上まで移動できると判断する。すると、次に、エンドエフェクタ11が対象物体41の側面に入る空間があるか否かを、接触を伴う動作によって判断する。そして、対象物体41の側面にエンドエフェクタ11が入れる空間がある場合には、エンドエフェクタ11が対象物体41を把持可能であるため、計測を終了すると判断してS12に移行する。一方、エンドエフェクタ11が対象物体41を把持できないと判断した場合には、S5に戻って計測を続行する。このように、把持位置決定部210は、周囲にロボット10の把持部であるエンドエフェクタ11を挿入可能な空間を有する位置を、ロボット10が対象物体41を把持可能な位置として決定する。 If there is space, it is determined that the robot 10 can move above the target object 41. Then, next, whether or not there is a space for the end effector 11 to enter the side surface of the target object 41 is determined by an operation accompanied by contact. Then, when there is a space for the end effector 11 on the side surface of the target object 41, since the end effector 11 can grip the target object 41, it is determined that the measurement is finished and the process proceeds to S12. On the other hand, when it is determined that the end effector 11 cannot grip the target object 41, the process returns to S5 and the measurement is continued. In this way, the gripping position determining unit 210 determines a position having a space around which the end effector 11, which is a gripping portion of the robot 10, can be inserted, as a position where the robot 10 can grip the target object 41.

また、S11で把持可能でないと判断した場合、S5の計測位置決定の処理を再び行うが、このとき、ここまでの処理の結果を利用してもよい。例えば、S11にて把持可能かの判断をするにあたり、ロボットの動作が行われているが、その計測位置決定を行う際、次の計測位置は別の計測位置から求めるといった方法である。具体的には、今回の計測位置決定にあたり、候補となる位置が複数あるとする。このとき、S5の説明で述べたように、表面の凹凸状態などを利用して、対象物体41の存在確率が高い部分を計測位置として決定している。この存在確率を評価関数として利用する場合、今回の計測ではこの評価関数が最大値を示した位置を計測位置として決定しているが、次回の計測では評価関数が最大値の次に大きい値を示した位置を計測位置として決定する。これらの結果は作成した地図情報に含んでもよい。このように、単に同じ処理を繰り返すだけでなく、今回の処理の結果を地図情報に随時更新することで、次回の処理において利用してもよい。こうすることで、ロボット10が把持可能でない位置へ何度も移動することがなくなる。また、ロボット10は把持可能性の高い順に移動することができる。そのため、一回目の処理で対象物体41の把持に失敗しても、二回目以降の処理で把持できる確率が上がる。 If it is determined in S11 that the grip is not possible, the process of determining the measurement position in S5 is performed again, but at this time, the result of the process up to this point may be used. For example, in S11, the robot is operating to determine whether it can be gripped, but when determining the measurement position, the next measurement position is obtained from another measurement position. Specifically, it is assumed that there are a plurality of candidate positions for determining the measurement position this time. At this time, as described in the explanation of S5, the portion where the existence probability of the target object 41 is high is determined as the measurement position by utilizing the uneven state of the surface. When this existence probability is used as an evaluation function, the position where this evaluation function shows the maximum value is determined as the measurement position in this measurement, but in the next measurement, the evaluation function will be the next largest value after the maximum value. The indicated position is determined as the measurement position. These results may be included in the created map information. In this way, not only the same processing is simply repeated, but also the result of the current processing may be updated to map information at any time so that it can be used in the next processing. By doing so, the robot 10 does not move to a position where it cannot be grasped many times. In addition, the robot 10 can move in descending order of gripability. Therefore, even if the target object 41 fails to be gripped in the first process, the probability that the target object 41 can be gripped in the second and subsequent processes increases.

なお、S11において、図4では「把持可能か?」と記載しているが、これは単に把持ができるかできないかだけでなく、把持動作を実行できる位置までロボット10が移動できるかどうかという判断も含む。ロボット10が移動する際、想定外の障害などで、把持動作を実行する予定の位置まで移動できない場合が生じる可能性もある。その場合は、把持可能ではないと判断し、S5の処理を行う。 In S11, FIG. 4 describes "Is it possible to grip?", But this is not only a determination of whether or not the robot 10 can be gripped, but also a determination of whether or not the robot 10 can move to a position where the gripping operation can be executed. Also includes. When the robot 10 moves, it may not be possible to move to the position where the gripping operation is scheduled to be performed due to an unexpected obstacle or the like. In that case, it is determined that the grip is not possible, and the process of S5 is performed.

S12では、把持位置決定部210は、S10において作成された地図情報に基づいて、対象物体41の把持位置を決定する。把持位置決定部210は、S11において把持可能であると判断された位置の中から対象物体41の把持位置を決定する。
S13では、行動計画部205は、S12において決定された把持位置による対象物体41の把持動作を実現するためのロボット10の行動計画を決定する。行動計画を決定する際には、行動計画部205は、把持位置をもとに、予め外部メモリ24等に格納された動作データベース(動作DB)を参照する。動作DBは、部品種および作業手順の情報を保持している。なお、ロボットの行動計画は、一般的な経路探索アルゴリズムを利用して決定することができる。経路探索アルゴリズムとしては、例えば、RRT(Rapidly-exploring Random Tree)やPRM(Probabilistic RoadMap)などのサンプリングベース探索法を用いることができる。その際、地図情報を利用して、どこに対象物体41があるか、どこに障害物があるか、といった3次元の位置情報を入力する。このような手法を用いることで、行動計画部205は、障害物を回避しながら対象物体41を把持できるロボット10の行動計画を決定する。ただし、同様の結果が得られるのであれば、別の手法を用いてもよい。
In S12, the gripping position determining unit 210 determines the gripping position of the target object 41 based on the map information created in S10. The gripping position determining unit 210 determines the gripping position of the target object 41 from the positions determined to be grippable in S11.
In S13, the action planning unit 205 determines the action plan of the robot 10 for realizing the gripping operation of the target object 41 by the gripping position determined in S12. When determining the action plan, the action planning unit 205 refers to the operation database (operation DB) previously stored in the external memory 24 or the like based on the gripping position. The operation DB holds information on the part type and the work procedure. The action plan of the robot can be determined by using a general route search algorithm. As the route search algorithm, for example, a sampling-based search method such as RRT (Rapidly-exploring Random Tree) or PRM (Probabilistic RoadMap) can be used. At that time, using the map information, three-dimensional position information such as where the target object 41 is and where the obstacle is is input. By using such a method, the action planning unit 205 determines the action plan of the robot 10 that can grasp the target object 41 while avoiding obstacles. However, if similar results can be obtained, another method may be used.

次にS14では、行動計画部205は、S13において決定した行動計画に基づいて、ロボット10へ動作指示情報を出力する。これにより、ロボット10は、エンドエフェクタ11を把持位置まで移動し、把持位置において対象物体41に対する把持動作を行う。ロボット10によって把持された対象物体41は、動作DBに蓄積された作業手順に則って所定の場所へ搬送される。
S15では、CPU21は、画像取得部201が取得した画像情報をもとに、認識対象となる次の対象物体41が存在するか否かを判定する。そして、CPU21は、対象物体41が存在しない場合には認識処理を終了すると判断して図4に示す処理を終了し、対象物体41が存在する場合には、認識処理を継続すると判断してS2に戻る。
Next, in S14, the action planning unit 205 outputs the action instruction information to the robot 10 based on the action plan determined in S13. As a result, the robot 10 moves the end effector 11 to the gripping position and performs a gripping operation on the target object 41 at the gripping position. The target object 41 gripped by the robot 10 is transported to a predetermined place according to the work procedure accumulated in the operation DB.
In S15, the CPU 21 determines whether or not the next target object 41 to be recognized exists based on the image information acquired by the image acquisition unit 201. Then, the CPU 21 determines that the recognition process is completed when the target object 41 does not exist, ends the process shown in FIG. 4, and determines that the recognition process is continued when the target object 41 exists, and determines that the recognition process is continued in S2. Return to.

このように、情報処理装置20は、撮像装置31から得られる画像情報をもとに計測した表面位置情報に基づいて、より詳しく対象物体41の位置および姿勢を計測するための計測位置を決定し、決定した計測位置へロボット10を移動させる。そして、計測位置においてロボット10を対象物体41に実際に接触させ、その接触動作中に力覚センサ33および位置検出センサ34を用いて計測された力情報および位置検出情報に基づいて、対象物体41の詳細位置を計測する。対象物体41の位置および姿勢は、地図情報を作成することで認識する。これにより、撮像装置31のみでは位置および姿勢を正確に認識できないような、ビニール袋や緩衝材に包まれた対象物体41であっても、適切に把持動作のための認識が可能となる。したがって、対象物体41の把持できるケースが増え、作業の効率化が図れる。 In this way, the information processing device 20 determines the measurement position for measuring the position and orientation of the target object 41 in more detail based on the surface position information measured based on the image information obtained from the image pickup device 31. , The robot 10 is moved to the determined measurement position. Then, the robot 10 is actually brought into contact with the target object 41 at the measurement position, and the target object 41 is based on the force information and the position detection information measured by the force sensor 33 and the position detection sensor 34 during the contact operation. Measure the detailed position of. The position and orientation of the target object 41 are recognized by creating map information. As a result, even the target object 41 wrapped in a plastic bag or cushioning material, whose position and posture cannot be accurately recognized only by the imaging device 31, can be appropriately recognized for the gripping operation. Therefore, the number of cases in which the target object 41 can be gripped increases, and work efficiency can be improved.

なお、本実施形態においては、対象物体41に対する接触動作は1回としているが、一度の接触動作によって対象物体41を認識できない場合には、複数回触って計測を繰り返して地図情報を作成してもよい。これにより、認識の精度を向上させることができる。
以上のように、本実施形態では、表面位置計測部202が、物体(対象物体41および周辺物体42)の表面位置情報を計測(取得)し、計測位置決定部204が、表面位置情報に基づいて対象物体41を実測するための計測位置を決定する。また、力計測部207および位置計測部209は、計測位置において対象物体41に接触したときの接触位置情報を計測する。そして、地図情報作成部203は、表面位置情報と接触位置情報とに基づいて、対象物体41の位置および姿勢を認識する。
In the present embodiment, the contact operation with respect to the target object 41 is performed once, but when the target object 41 cannot be recognized by one contact operation, the target object 41 is touched a plurality of times to repeat the measurement to create map information. May be good. Thereby, the accuracy of recognition can be improved.
As described above, in the present embodiment, the surface position measuring unit 202 measures (acquires) the surface position information of the objects (target object 41 and peripheral objects 42), and the measurement position determining unit 204 is based on the surface position information. The measurement position for actually measuring the target object 41 is determined. Further, the force measuring unit 207 and the position measuring unit 209 measure the contact position information when the target object 41 is contacted at the measuring position. Then, the map information creation unit 203 recognizes the position and orientation of the target object 41 based on the surface position information and the contact position information.

このように、対象物体41に実際に触って接触位置情報を計測するので、対象物体41の詳細位置を確認することができる。これにより、ビニール袋や緩衝材に包まれた中身である対象物体41の位置および姿勢を適切に認識することができる。つまり、表面位置情報からだけでは、対象物体41の実際の位置および姿勢が認識できない場合であっても、対象物体41の実際の位置および姿勢の認識が可能となる。したがって、ロボット10により対象物体41を把持できるケースが増え、作業の効率化が図れる。 In this way, since the contact position information is measured by actually touching the target object 41, the detailed position of the target object 41 can be confirmed. As a result, the position and posture of the target object 41, which is the contents wrapped in the plastic bag or the cushioning material, can be appropriately recognized. That is, even if the actual position and posture of the target object 41 cannot be recognized only from the surface position information, the actual position and posture of the target object 41 can be recognized. Therefore, the number of cases in which the target object 41 can be gripped by the robot 10 increases, and work efficiency can be improved.

また、地図情報作成部203は、表面位置情報と接触位置情報とに基づいて、対象物体41の空間的な位置情報を示す地図情報を作成し、作成した地図情報に基づいて、対象物体41の位置および姿勢を認識する。このように、対象物体41に実際に触って確認した位置情報を考慮して地図情報を作成するので、適切に対象物体41の位置および姿勢を認識することができる。
さらに、地図情報作成部203は、地図情報の作成に際し、まず、表面位置情報に基づいて地図情報を作成し、次いで、計測位置において計測された接触位置情報に基づいて、表面位置情報に基づいて作成された地図情報を更新する。このように、撮像装置31による対象物体41の表面位置計測と、力覚センサ33および位置検出センサ34による位置計測の結果とを統合して地図情報を作成する。これにより、表面位置情報に基づいて作成したおおまかな地図情報において不足する情報を適切に補って最終的な地図情報を作成することができる。したがって、撮像装置31から取得される情報だけでは対象物体41の位置および姿勢が求まらない場合であっても、対象物体41の形状を適切に認識してロボット10による操作が可能になる。
Further, the map information creation unit 203 creates map information indicating the spatial position information of the target object 41 based on the surface position information and the contact position information, and based on the created map information, the target object 41 Recognize position and orientation. In this way, since the map information is created in consideration of the position information confirmed by actually touching the target object 41, the position and posture of the target object 41 can be appropriately recognized.
Further, when creating the map information, the map information creation unit 203 first creates the map information based on the surface position information, and then based on the contact position information measured at the measurement position, based on the surface position information. Update the created map information. In this way, the map information is created by integrating the surface position measurement of the target object 41 by the image pickup device 31 and the position measurement results by the force sensor 33 and the position detection sensor 34. As a result, it is possible to appropriately supplement the insufficient information in the rough map information created based on the surface position information and create the final map information. Therefore, even if the position and posture of the target object 41 cannot be obtained only from the information acquired from the image pickup device 31, the shape of the target object 41 can be appropriately recognized and operated by the robot 10.

また、計測位置決定部204は、表面位置情報に基づいて、表面が凸形状である位置を検出し、検出した位置を計測位置として決定する。したがって、対象物体41および周辺物体42が混在する中から、対象物体41の存在確率が高い部分を選択して実測することができる。
さらに、表面位置計測部202は、対象物体41および周辺物体42を撮像した画像情報に基づいて表面位置情報を取得する。そのため、容易に表面位置情報を取得することができる。
Further, the measurement position determination unit 204 detects a position where the surface has a convex shape based on the surface position information, and determines the detected position as the measurement position. Therefore, it is possible to select and actually measure the portion of the target object 41 having a high existence probability from the mixture of the target object 41 and the peripheral object 42.
Further, the surface position measuring unit 202 acquires the surface position information based on the image information obtained by imaging the target object 41 and the peripheral object 42. Therefore, the surface position information can be easily acquired.

また、力計測部207は、対象物体41に接触したときの反力を計測(取得)し、位置計測部209は、対象物体41との接触点の位置を計測(取得)する。そして、位置計測部209は、力計測部207によって計測された反力が所定の上限値に達したときに接触点の位置を計測することで、接触位置情報を計測する。したがって、対象物体41がビニール袋のようなやわらかい部材で包まれている場合には、対象物体41を包んでいる部材を潰して対象物体41に直接接触し、接触位置情報を計測することができる。その際、ビニール袋や緩衝材を潰し中身である対象物体41を壊さない力を上記上限値として設定すれば、正確に対象物体41の位置および姿勢を認識することができる。 Further, the force measuring unit 207 measures (acquires) the reaction force when it comes into contact with the target object 41, and the position measuring unit 209 measures (acquires) the position of the contact point with the target object 41. Then, the position measuring unit 209 measures the contact position information by measuring the position of the contact point when the reaction force measured by the force measuring unit 207 reaches a predetermined upper limit value. Therefore, when the target object 41 is wrapped with a soft member such as a plastic bag, the member surrounding the target object 41 can be crushed and directly contacted with the target object 41 to measure the contact position information. .. At that time, if the force that does not destroy the target object 41 that is the contents by crushing the plastic bag or the cushioning material is set as the upper limit value, the position and posture of the target object 41 can be accurately recognized.

把持位置決定部210は、地図情報作成部203により作成された地図情報から認識される対象物体41の位置および姿勢に基づいて、ロボット10が対象物体41を把持可能な把持位置を決定する。このように、把持位置決定部210は、対象物体41に実際に触って確認した位置情報を考慮して作成された地図情報をもとに把持位置を決定する。したがって、高精度で把持可能な位置を決定することができ、ロボット10による把持動作を高確率で成功させることができる。また、このとき、把持位置決定部210は、周囲にロボット10の把持部を挿入可能な空間を有する位置を把持位置として決定するので、適切に把持位置を決定することができる。 The gripping position determining unit 210 determines the gripping position where the robot 10 can grip the target object 41 based on the position and posture of the target object 41 recognized from the map information created by the map information creating unit 203. In this way, the gripping position determining unit 210 determines the gripping position based on the map information created in consideration of the position information confirmed by actually touching the target object 41. Therefore, the gripping position can be determined with high accuracy, and the gripping operation by the robot 10 can be successful with high probability. Further, at this time, since the gripping position determining unit 210 determines the position having a space around which the gripping portion of the robot 10 can be inserted as the gripping position, the gripping position can be appropriately determined.

(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
第二の実施形態では、上述した第一の実施形態に対し、さらに把持動作時に把持力を計測する把持力計測センサを追加し、把持力計測センサによって計測された把持力情報を利用して、地図情報をより詳細に作成するよう構成したものである。具体的には、まず、上述した第一の実施形態と同様に、撮像装置31を用いて対象物体41および周辺物体42の表面位置情報を計測する。次に、上述した第一の実施形態と同様に、表面位置情報に基づいて対象物体41の計測位置を決定し、計測位置において対象物体41に対する接触動作を行う。そして、接触動作時に、力覚センサ33および位置検出センサ34を用いて、ロボット10が対象物体41に接触しているときの位置情報を計測し、計測した位置情報に基づいて対象物体41の把持位置を決定する。本実施形態では、把持位置における把持動作時に、把持力計測センサと位置検出センサ34とを用いて対象物体41の把持幅情報を計測する。そして、以上の表面位置情報、位置情報、および把持幅情報の計測結果を統合して地図情報を作成することにより、対象物体41を把持するための形状を認識する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the second embodiment, a gripping force measuring sensor that measures the gripping force during the gripping operation is further added to the first embodiment described above, and the gripping force information measured by the gripping force measuring sensor is used. It is configured to create map information in more detail. Specifically, first, as in the first embodiment described above, the surface position information of the target object 41 and the peripheral object 42 is measured by using the image pickup apparatus 31. Next, as in the first embodiment described above, the measurement position of the target object 41 is determined based on the surface position information, and the contact operation with respect to the target object 41 is performed at the measurement position. Then, during the contact operation, the force sensor 33 and the position detection sensor 34 are used to measure the position information when the robot 10 is in contact with the target object 41, and the target object 41 is gripped based on the measured position information. Determine the position. In the present embodiment, the gripping width information of the target object 41 is measured by using the gripping force measurement sensor and the position detection sensor 34 during the gripping operation at the gripping position. Then, by integrating the measurement results of the surface position information, the position information, and the gripping width information to create map information, the shape for gripping the target object 41 is recognized.

第一の実施形態では、ロボット10が対象物体41を把持する前までの情報から対象物体41を認識した。そのため、大きさの異なる複数種類の物体中に目標の対象物体41が混在する場合、必ずしも目標の対象物体41を把持できるとは限らない。そこで、第二の実施形態では、把持動作時に計測した把持幅を部品DBと照合し、目標の対象物体41の大きさ(幅)を参照することで、把持動作によりロボット10が把持した物体が目標の対象物体41であるか否かを判定する。また、把持動作時も含めて地図情報を作成するようにする。 In the first embodiment, the target object 41 is recognized from the information before the robot 10 grips the target object 41. Therefore, when the target target object 41 is mixed in a plurality of types of objects having different sizes, it is not always possible to grasp the target target object 41. Therefore, in the second embodiment, the gripping width measured during the gripping operation is collated with the component DB, and the size (width) of the target target object 41 is referred to, so that the object gripped by the robot 10 by the gripping operation is obtained. It is determined whether or not the target object 41 is the target object. In addition, map information is created including the gripping operation.

図6は、第二の実施形態におけるロボットシステム100の構成例である。この図6において、上述した第一の実施形態と同様の構成を有する部分には、図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
本実施形態におけるロボットシステム100は、把持力計測センサ35がロボット10のエンドエフェクタ11先端に取り付けられている点で図1とは異なる。把持力計測センサ35は、歪みゲージや圧電素子により構成され、ロボット10が対象物体41を把持しているときの把持力を計測し、計測結果である把持力覚情報を情報処理装置20´へ出力する。把持力計測センサ35は、6軸力覚センサであってもよいし、3軸力覚センサであってもよい。また、把持力計測センサ35は、1次元の圧力センサであってもよいし、接触の有無を判別する接触センサであってもよい。
FIG. 6 is a configuration example of the robot system 100 in the second embodiment. In FIG. 6, the parts having the same configuration as that of the first embodiment described above are designated by the same reference numerals as those in FIG. 1, and the parts having different configurations will be mainly described below.
The robot system 100 in this embodiment is different from FIG. 1 in that the gripping force measurement sensor 35 is attached to the tip of the end effector 11 of the robot 10. The gripping force measuring sensor 35 is composed of a strain gauge and a piezoelectric element, measures the gripping force when the robot 10 is gripping the target object 41, and transmits the gripping force sensory information as the measurement result to the information processing device 20'. Output. The gripping force measurement sensor 35 may be a 6-axis force sensor or a 3-axis force sensor. Further, the gripping force measurement sensor 35 may be a one-dimensional pressure sensor or a contact sensor that determines the presence or absence of contact.

図7は、本実施形態における情報処理装置20´の機能ブロック図である。図7に示す情報処理装置20´は、図2に示す情報処理装置20に対して、把持力覚情報取得部211と、把持力計測部212とが追加されている点が異なる。
把持力覚情報取得部211は、把持力計測センサ35から出力される把持力覚情報を取得し、取得した把持力覚情報を把持力計測部212へ出力する。把持力覚情報取得部211は、例えばメモリ(RAM)によって構成される。把持力計測部212は、把持力覚情報取得部211から入力した把持力覚情報に基づいて、ロボット10のエンドエフェクタ11によって物体を把持したときのロボット10にかかる力を計測する。把持力計測部212は、計測した把持力情報を位置情報計測部209に出力する。表面位置計測部202、地図情報作成部203、計測位置決定部204、力計測部207、位置計測部209および把持力計測部212によって、対象物体41の位置および姿勢を認識する処理を行う認識部220´を構成している。
FIG. 7 is a functional block diagram of the information processing device 20'in this embodiment. The information processing device 20'shown in FIG. 7 is different from the information processing device 20 shown in FIG. 2 in that a gripping force sensory information acquisition unit 211 and a gripping force measuring unit 212 are added.
The gripping force sense information acquisition unit 211 acquires the gripping force sense information output from the gripping force measurement sensor 35, and outputs the acquired gripping force sense information to the gripping force measurement unit 212. The gripping force sense information acquisition unit 211 is composed of, for example, a memory (RAM). The gripping force measuring unit 212 measures the force applied to the robot 10 when the end effector 11 of the robot 10 grips an object based on the gripping force sense information input from the gripping force sense information acquisition unit 211. The gripping force measuring unit 212 outputs the measured gripping force information to the position information measuring unit 209. A recognition unit that performs processing to recognize the position and orientation of the target object 41 by the surface position measurement unit 202, map information creation unit 203, measurement position determination unit 204, force measurement unit 207, position measurement unit 209, and grip force measurement unit 212. It constitutes 220'.

図8は、情報処理装置20´が実行するロボット制御処理手順を示すフローチャートである。図8に示す処理は、図4のS14とS15との処理の間に、S21〜S26の処理が追加されていることを除いては、図4と同様の処理を行う。したがって、以下、処理の異なる部分を中心に説明する。
S21では、把持力覚情報取得部211は、把持力計測センサ35が出力する把持力覚情報を取得する。また、位置情報取得部208は、把持力覚情報取得部211による把持力覚情報の取得に同期して、位置検出センサ34が出力する位置検出情報を取得する。次にS22では、把持力計測部212は、S21において把持力覚情報取得部211が取得した把持力覚情報に基づいて、ロボット10が対象物体41を把持したときの把持力情報を計測する。また、位置計測部209は、S21において位置情報取得部208が取得した位置検出情報に基づいて、ロボット10が対象物体41を把持したときのエンドエフェクタ11先端の位置を計測する。つまり、位置計測部209は、ロボット10が把持した対象物体41の把持幅情報を計測する。
FIG. 8 is a flowchart showing a robot control processing procedure executed by the information processing device 20'. The process shown in FIG. 8 is the same as that of FIG. 4 except that the processes of S21 to S26 are added between the processes of S14 and S15 of FIG. Therefore, the different parts of the processing will be mainly described below.
In S21, the gripping force sense information acquisition unit 211 acquires the gripping force sense information output by the gripping force measurement sensor 35. Further, the position information acquisition unit 208 acquires the position detection information output by the position detection sensor 34 in synchronization with the acquisition of the grip force sense information by the gripping force sense information acquisition unit 211. Next, in S22, the gripping force measuring unit 212 measures the gripping force information when the robot 10 grips the target object 41 based on the gripping force sense information acquired by the gripping force sense information acquisition unit 211 in S21. Further, the position measurement unit 209 measures the position of the tip of the end effector 11 when the robot 10 grips the target object 41 based on the position detection information acquired by the position information acquisition unit 208 in S21. That is, the position measuring unit 209 measures the gripping width information of the target object 41 gripped by the robot 10.

把持力情報および把持幅情報は、ロボット10の対象物体41に対する把持動作を行っている間、繰り返し計測される。上記把持動作は、対象物体41を把持したときにロボット10にかかる力の大きさが、予め設定された上限値を超えない範囲で実施するものとする。ロボット10にかかる力の大きさが上限値を超えたか否かは、S22において計測される把持力情報に基づいて判定する。把持動作を行う中で、ロボット10にかかる力は、対象物体41への把持力に応じて増加する。そこで、上記の力の上限値は、把持動作により対象物体41に破損等の不具合が生じない程度の力に設定する。例えば、対象物体41がビニール袋に包まれたトナーカートリッジである場合、ビニール袋を潰しトナーカートリッジを壊さない程度の力を上限値として設定する。 The gripping force information and the gripping width information are repeatedly measured while the robot 10 is performing the gripping operation on the target object 41. The gripping operation is performed within a range in which the magnitude of the force applied to the robot 10 when gripping the target object 41 does not exceed a preset upper limit value. Whether or not the magnitude of the force applied to the robot 10 exceeds the upper limit value is determined based on the gripping force information measured in S22. During the gripping operation, the force applied to the robot 10 increases according to the gripping force on the target object 41. Therefore, the upper limit value of the above force is set to such a force that the target object 41 is not damaged or otherwise caused by the gripping operation. For example, when the target object 41 is a toner cartridge wrapped in a plastic bag, a force that does not crush the plastic bag and break the toner cartridge is set as the upper limit value.

ロボット10がビニール袋を潰してトナーカートリッジの表面に当接し、ロボット10にかかる力が上限値に達すると、情報処理装置20´はロボット10の把持動作を停止する。把持動作を停止した時点でのロボット10のエンドエフェクタ11による把持幅は、対象物体41の実際の大きさとして認識することができる。
S23では、地図情報作成部203は、S22において計測した把持力情報および把持幅情報に基づいて、S10において作成された地図情報を更新し、新たな地図情報を作成する。このS23では、地図情報作成部203は、S22において計測した把持幅を、対象物体41の大きさを示す情報として利用する。このように、地図情報作成部203は、対象物体41を実際に把持して得られた把持幅情報を加味して地図情報を作成し、対象物体41を認識する。
When the robot 10 crushes the plastic bag and comes into contact with the surface of the toner cartridge and the force applied to the robot 10 reaches the upper limit value, the information processing device 20'stops the gripping operation of the robot 10. The gripping width of the robot 10 by the end effector 11 at the time when the gripping operation is stopped can be recognized as the actual size of the target object 41.
In S23, the map information creating unit 203 updates the map information created in S10 based on the gripping force information and the gripping width information measured in S22, and creates new map information. In this S23, the map information creation unit 203 uses the gripping width measured in S22 as information indicating the size of the target object 41. In this way, the map information creation unit 203 creates map information in consideration of the gripping width information obtained by actually gripping the target object 41, and recognizes the target object 41.

地図情報作成部203は、まず各座標系の統一処理を行う。ロボット10、撮像装置31、力覚センサ33の座標系の統一については第一の実施形態において述べたとおりである。したがって、以下、把持力計測センサ35の座標系について述べる。本実施形態では、ロボット10の先端座標系Σfから把持力計測センサ座標系Σgまでの変位を(GX,GY,GZ)とする。また、把持力計測センサ35の姿勢を表す3×3の回転行列をGMとする。ここで、ワールド座標系Σwから見た、把持動作時にロボット10にかかる把持力を4×4の行列GTとすると、行列GTは以下の(4)式で求まる。この(4)式を用いて、把持力の方向をワールド座標系Σwで考慮することができる。 The map information creation unit 203 first performs unified processing for each coordinate system. The unification of the coordinate systems of the robot 10, the image pickup device 31, and the force sensor 33 is as described in the first embodiment. Therefore, the coordinate system of the gripping force measurement sensor 35 will be described below. In the present embodiment, the displacement from the tip coordinate system Σf of the robot 10 to the gripping force measurement sensor coordinate system Σg is defined as (GX, GY, GZ). Further, a 3 × 3 rotation matrix representing the posture of the gripping force measurement sensor 35 is defined as GM. Here, assuming that the gripping force applied to the robot 10 during the gripping operation as seen from the world coordinate system Σw is a 4 × 4 matrix GT, the matrix GT can be obtained by the following equation (4). Using this equation (4), the direction of the gripping force can be considered in the world coordinate system Σw.

Figure 0006752615
Figure 0006752615

地図情報作成部203は、地図情報を作成する際には、上記(4)式と、上述した(1)〜(3)式とを用いて、異なる複数のセンサの座標系を統一する。そして、地図情報作成部203は、座標系が統一されたら、各センサから得られた情報を利用して地図情報を作成していく。このS23では、地図情報作成部203は、S10において作成した地図情報に対して、実際に対象物体41を把持した結果を付加する処理を行う。
S24では、CPU21は、S23において作成された地図情報と、部品DBを参照して得られる対象物体41の形状情報とをもとに、ロボット10が把持している物体が目標の対象物体41であるか否かを判定する。判定の際には、対象物体41を包んでいる周辺物体42の変形具合を考慮し、対象物体41の取りうる幅を推定する。そして、対象物体41の把持幅が、推定した取りうる幅以内である場合には、CPU21は、ロボット10が把持している物体が対象物体41であると判断する。把持している物体が対象物体41であると判断した場合には、動作を継続すると判断してS25へ移行する。一方、把持している物体が対象物体41ではないと判断した場合にはS12へ戻り、再度、把持位置を決定し、地図情報の作成を繰り返す。
When creating map information, the map information creation unit 203 unifies the coordinate systems of a plurality of different sensors by using the above equation (4) and the above equations (1) to (3). Then, when the coordinate system is unified, the map information creation unit 203 creates map information using the information obtained from each sensor. In this S23, the map information creation unit 203 performs a process of adding the result of actually grasping the target object 41 to the map information created in S10.
In S24, the CPU 21 determines that the object held by the robot 10 is the target object 41 based on the map information created in S23 and the shape information of the target object 41 obtained by referring to the component DB. Determine if it exists. At the time of determination, the possible width of the target object 41 is estimated in consideration of the degree of deformation of the peripheral object 42 surrounding the target object 41. Then, when the gripping width of the target object 41 is within the estimated possible width, the CPU 21 determines that the object gripped by the robot 10 is the target object 41. If it is determined that the object being gripped is the target object 41, it is determined that the operation will be continued, and the process proceeds to S25. On the other hand, when it is determined that the gripped object is not the target object 41, the process returns to S12, the gripping position is determined again, and the creation of map information is repeated.

S25では、行動計画部205は、把持した対象物体41に対する操作を実現するためのロボット10の行動計画を決定する。行動計画を決定する際には、行動計画部205は、把持位置をもとに、動作DBに蓄積されている部品種と作業手順の情報を参照する。
次にS26では、行動計画部205は、S25において決定した行動計画に基づいて、ロボット10へ動作指示情報を出力する。これにより、ロボット10は、エンドエフェクタ11によって把持した対象物体41を、動作DBに蓄積された作業手順に則って所定の場所へ搬送する。
このように、本実施形態では、上述した第一の実施形態と同様の手法により対象物体41を認識し、対象物体41を把持したとき、把持力計測センサ35を用いて把持した物体の把持幅を計測する。そして、計測した把持幅に基づいて、把持した物体が対象物体41であるか否かの判定を行い、地図情報をより詳細に作成する。これにより、大きさの異なる複数種類の対象物体41が存在する場合であっても、それぞれ高精度で認識することができる。そのため、異なる種類の対象物体41を正確に把持できるケースが増え、作業を継続できる可能性を拡大することができる。
In S25, the action planning unit 205 determines the action plan of the robot 10 for realizing the operation on the grasped target object 41. When deciding the action plan, the action planning unit 205 refers to the information of the part type and the work procedure stored in the operation DB based on the gripping position.
Next, in S26, the action planning unit 205 outputs the action instruction information to the robot 10 based on the action plan determined in S25. As a result, the robot 10 conveys the target object 41 gripped by the end effector 11 to a predetermined place according to the work procedure accumulated in the operation DB.
As described above, in the present embodiment, when the target object 41 is recognized by the same method as the first embodiment described above and the target object 41 is gripped, the gripping width of the object gripped by the gripping force measurement sensor 35 is used. To measure. Then, based on the measured gripping width, it is determined whether or not the gripped object is the target object 41, and the map information is created in more detail. As a result, even when a plurality of types of target objects 41 having different sizes exist, they can be recognized with high accuracy. Therefore, the number of cases in which different types of target objects 41 can be accurately grasped increases, and the possibility of continuing the work can be expanded.

具体的には、把持力計測部212は、把持位置において対象物体41を把持したときの把持幅情報を計測し、地図情報作成部203は、把持幅情報をさらに用いて対象物体41の位置および姿勢を認識する。したがって、より詳細に対象物体41を把持するための形状を認識することができる。例えば、対象物体41が大きさの異なる複数種類である場合にも、より高い精度で対象物体41の位置および姿勢を認識し、ロボット10による作業を継続できる可能性を拡大することができる。また、実際に対象物体41を把持したときの把持幅を計測するので、対象物体41の大きさを精度良く計測することができる。したがって、把持した物体が目標の対象物体41であるか否かを適切に判断することができる。 Specifically, the gripping force measuring unit 212 measures the gripping width information when the target object 41 is gripped at the gripping position, and the map information creating unit 203 further uses the gripping width information to obtain the position of the target object 41 and Recognize posture. Therefore, the shape for gripping the target object 41 can be recognized in more detail. For example, even when the target object 41 is of a plurality of types having different sizes, the position and posture of the target object 41 can be recognized with higher accuracy, and the possibility of continuing the work by the robot 10 can be expanded. Further, since the gripping width when the target object 41 is actually gripped is measured, the size of the target object 41 can be measured with high accuracy. Therefore, it is possible to appropriately determine whether or not the grasped object is the target object 41.

(第三の実施形態)
次に、第三の実施形態について説明する。
第三の実施例では、上述した第一、第二の実施例に対し、オクルージョンのある領域にエンドエフェクタ11を挿入したときに、作成した地図情報を利用することにより、周辺物体42と干渉することのないロボット10の行動計画を行うことができる。ここで、ロボットの制御の処理手順は図4に示すフローチャートと同じであるが、S13での処理が異なる。
オクルージョンのある領域にエンドエフェクタ11を挿入する場合とは、例えば図9(a)のように、撮像装置31が撮像できる領域A0に対して、対象物体41が存在する領域が周辺物体42などにより遮蔽されている状態にある場合である。この場合、図9(b)のように、対象物体41を認識できる領域A1と、撮像装置31が対象物体41を撮像しようとしても対象物体41を認識できない領域A2とが発生してしまう。この状態にあるとき、対象物体41を把持できたとしても、対象物体41を搬送して取り出すときに、撮像装置31によって撮像できない周辺物体42に干渉してしまうことで、把持している対象物体41を落下させてしまうおそれがある。
(Third embodiment)
Next, the third embodiment will be described.
In the third embodiment, with respect to the first and second embodiments described above, when the end effector 11 is inserted into a certain area of occlusion, the created map information is used to interfere with the peripheral object 42. It is possible to make an action plan for the robot 10 that has never happened. Here, the processing procedure for controlling the robot is the same as the flowchart shown in FIG. 4, but the processing in S13 is different.
When the end effector 11 is inserted into a region with occlusion, for example, as shown in FIG. 9A, the region where the target object 41 exists is a peripheral object 42 or the like with respect to the region A0 where the imaging device 31 can image. This is the case when it is in a shielded state. In this case, as shown in FIG. 9B, an area A1 that can recognize the target object 41 and a region A2 that cannot recognize the target object 41 even if the imaging device 31 tries to image the target object 41 are generated. In this state, even if the target object 41 can be gripped, when the target object 41 is transported and taken out, it interferes with the peripheral object 42 that cannot be imaged by the imaging device 31, and the target object being gripped. There is a risk of dropping 41.

そこで、本実施形態では、S13の処理において、S4、S10で作成・更新された地図情報を利用する。対象物体41を把持するまでに作成した地図情報は、対象物体41に限らず、周辺物体42に関する情報も含んでいる。そのため、ロボット10が対象物体41を把持してから搬送し、取り出すときの行動計画においては、周辺物体42の存在する空間的な情報を考慮し、ロボット10が移動可能な空間を限定する。
周辺物体42の位置情報取得にあたっては、力覚センサ33に代えて、接近した物体までの距離を検出する近接覚センサを用いてもよい。この場合、計測位置において、対象物体41に接触しているときに近接覚センサにより対象物体41までの距離情報を直接取得することで接触位置情報を計測し、地図情報を作成することができる。近接覚センサが図1や図6に示す力覚センサ33と近い位置に設置されている場合、近接覚センサは、エンドエフェクタ11の基部からロボット10の対象物体41に対する接触点の位置までの距離情報を取得することができる。さらに、近接覚センサを複数箇所に配置しておけば、一度に複数箇所の距離情報を計測して地図情報を作成することができる。そのため、撮像装置31による計測ではオクルージョンがある場合、対象物体41把持後の取出し動作において、対象物体41の周辺の周辺物体42に干渉することのないロボット10の動作をより短時間に計画することができる。
Therefore, in the present embodiment, the map information created / updated in S4 and S10 is used in the process of S13. The map information created before grasping the target object 41 includes not only the target object 41 but also information about the peripheral object 42. Therefore, in the action plan when the robot 10 grips the target object 41 and then conveys and takes it out, the space in which the robot 10 can move is limited in consideration of the spatial information in which the peripheral object 42 exists.
When acquiring the position information of the peripheral object 42, a proximity sensor that detects the distance to an approaching object may be used instead of the force sensor 33. In this case, at the measurement position, the contact position information can be measured and the map information can be created by directly acquiring the distance information to the target object 41 by the proximity sensor when the object is in contact with the target object 41. When the proximity sensor is installed at a position close to the force sensor 33 shown in FIGS. 1 and 6, the proximity sensor is the distance from the base of the end effector 11 to the position of the contact point of the robot 10 with respect to the target object 41. Information can be obtained. Further, if the proximity sensors are arranged at a plurality of locations, the distance information at the plurality of locations can be measured at one time to create the map information. Therefore, when there is occlusion in the measurement by the imaging device 31, the operation of the robot 10 that does not interfere with the peripheral objects 42 around the target object 41 is planned in a shorter time in the extraction operation after grasping the target object 41. Can be done.

また、力覚センサ33と近接覚センサとを両方用いて計測してもよい。力覚センサ33と近接覚センサとを両方利用することで、力覚センサ33による計測により高い精度で位置計測を行いながら、近接覚センサにより複数箇所を一度に計測して地図情報を作成することができる。これにより、より短時間に対象物体41と周辺物体42とを認識し、ロボット10の行動を適切に計画することができる。なお、近接覚センサは赤外線センサであってもよいし、磁気タイプや超音波タイプのセンサを用いてもよい。
こうすることによって、ロボット10が把持している対象物体41を搬送する際、搬送中に対象物体41が周辺物体42と干渉する可能性が低くなるので、搬送中に対象物体41が落下する恐れが低くなり、作業効率を向上することができる。
Further, both the force sensor 33 and the proximity sensor may be used for measurement. By using both the force sensor 33 and the proximity sensor, it is possible to create map information by measuring a plurality of locations at once with the proximity sensor while measuring the position with high accuracy by the measurement by the force sensor 33. Can be done. As a result, the target object 41 and the peripheral object 42 can be recognized in a shorter time, and the action of the robot 10 can be appropriately planned. The proximity sensor may be an infrared sensor, or a magnetic type or ultrasonic type sensor may be used.
By doing so, when the target object 41 held by the robot 10 is transported, the possibility that the target object 41 interferes with the peripheral objects 42 during transportation is reduced, so that the target object 41 may fall during transportation. Can be reduced and work efficiency can be improved.

(変形例)
上記各実施形態においては、ロボット10が把持動作に失敗した場合、把持位置決定部210は、把持動作に失敗した把持位置を次に把持動作を行う把持位置候補から除外し、別の場所から把持位置を決定するようにしてもよい。このように、地図情報を作成することにより、ロボット動作における同じ失敗を防ぐための処理が可能となる。これにより、ロボット10による作業時間を短縮することができる。
(Modification)
In each of the above embodiments, when the robot 10 fails in the gripping operation, the gripping position determining unit 210 excludes the gripping position in which the gripping operation fails from the gripping position candidates for the next gripping operation, and grips from another place. The position may be determined. By creating the map information in this way, it is possible to perform processing for preventing the same failure in the robot operation. As a result, the working time of the robot 10 can be shortened.

また、上記各実施形態においては、ロボット10が対象物体41に接触したときの力覚情報から対象物体41の材質を認識し、認識した情報を利用して対象物体41を把持するようにしてもよい。例えば、上記各実施形態のように、対象物体41がビニール袋に包まれている場合、ロボット10がビニール袋に接触したとき、わずかにロボット10に力がかかる。その場合、ロボット10にかかった力から、ビニール袋が存在する空間が分かるので、ビニール袋を把持して対象物体41を操作(搬送)するようにしてもよい。これにより、対象物体41そのものを把持できない場合であっても、対象物体41を操作することができ、作業を継続できる可能性を向上させることができる。 Further, in each of the above embodiments, the material of the target object 41 is recognized from the force sense information when the robot 10 comes into contact with the target object 41, and the recognized information is used to grip the target object 41. Good. For example, when the target object 41 is wrapped in a plastic bag as in each of the above embodiments, when the robot 10 comes into contact with the plastic bag, a slight force is applied to the robot 10. In that case, since the space where the plastic bag exists can be known from the force applied to the robot 10, the target object 41 may be operated (conveyed) by grasping the plastic bag. As a result, even when the target object 41 itself cannot be grasped, the target object 41 can be operated, and the possibility of continuing the work can be improved.

さらに、上記各実施形態においては、力覚センサ33を用いた対象物体41の詳細位置計測の後に、撮像装置31による対象物体41の表面位置計測を再度行ってもよい。力覚センサ33により複数回の計測が行われると、センサドリフトによりズレが蓄積されてしまう場合がある。したがって、適宜、撮像装置31による表面位置計測を行うことで、上記ズレを補正して地図情報を作成することができる。これにより、センサドリフトのズレによる影響を抑制し、より正確に地図情報を作成できるので、作業を正確に行える可能性を向上させることができる。 Further, in each of the above embodiments, after the detailed position measurement of the target object 41 using the force sensor 33, the surface position measurement of the target object 41 by the imaging device 31 may be performed again. When the force sensor 33 makes a plurality of measurements, the deviation may be accumulated due to the sensor drift. Therefore, the map information can be created by correcting the above-mentioned deviation by appropriately measuring the surface position by the imaging device 31. As a result, the influence of the deviation of the sensor drift can be suppressed and the map information can be created more accurately, so that the possibility of performing the work accurately can be improved.

また、上記各実施形態においては、撮像装置31による計測を最初に複数回行い、表面位置情報をより詳細に計測してもよい。これにより、その後の力覚センサ33や近接覚センサによる計測の回数を少なくすることができる。その結果、より短時間で対象物体41を認識し、ロボット10の行動を計画することができる。
さらに、上記各実施形態においては、位置および姿勢が認識された対象物体41を、ロボットによって把持し搬送する場合について説明した。しかしながら、対象物体41の位置および姿勢の認識が目的である場合、把持や搬送といったロボットによる操作は行わなくてもよい。本発明の効果は、表面位置情報だけでは対象物体41を正確に認識できない場合であっても、対象物体41の位置および姿勢を適切に認識できることである。そのため、認識された対象物体41の位置および姿勢に関する情報を作業者に提示(表示)したり、認識された対象物体41の位置および姿勢をもとに、対象物体41の検査を行ったりしてもよい。ここで、対象物体41の検査とは、対象物体41の形状を確認したり、望ましい位置にあるか確認したりすることである。
Further, in each of the above embodiments, the measurement by the image pickup apparatus 31 may be performed a plurality of times at first, and the surface position information may be measured in more detail. As a result, the number of subsequent measurements by the force sensor 33 and the proximity sensor can be reduced. As a result, the target object 41 can be recognized in a shorter time, and the action of the robot 10 can be planned.
Further, in each of the above embodiments, a case where the target object 41 whose position and posture are recognized is grasped and conveyed by the robot has been described. However, when the purpose is to recognize the position and posture of the target object 41, it is not necessary to perform operations by the robot such as grasping and transporting. The effect of the present invention is that the position and orientation of the target object 41 can be appropriately recognized even when the target object 41 cannot be accurately recognized only by the surface position information. Therefore, information on the position and posture of the recognized target object 41 is presented (displayed) to the operator, and the target object 41 is inspected based on the recognized position and posture of the target object 41. May be good. Here, the inspection of the target object 41 is to confirm the shape of the target object 41 and to confirm whether it is in a desirable position.

また、認識された対象物体41の位置および姿勢をもとに、ロボットが対象物体41に対して把持を伴わない操作を行ってもよい。ここで、把持を伴わない操作とは、把持せずに対象物体41に接触し、対象物体41の位置を変化させる操作である。このように、対象物体41に対してロボットが操作を実行する場合、その操作は、把持を伴う操作であってもよいし把持を伴わない操作であってもよい。
さらに、表面位置情報や接触位置情報を取得するためのロボットは、1台であってもよいし複数台であってもよい。また、表面位置情報や接触位置情報を取得するためのロボットと、対象物体41に対して把持や搬送といった操作を実行するロボットとは、同じであってもよいし違っていてもよい。
Further, the robot may perform an operation without grasping the target object 41 based on the recognized position and posture of the target object 41. Here, the operation without grasping is an operation of contacting the target object 41 without grasping and changing the position of the target object 41. As described above, when the robot performs an operation on the target object 41, the operation may be an operation involving gripping or an operation not accompanied by gripping.
Further, the number of robots for acquiring surface position information and contact position information may be one or a plurality. Further, the robot for acquiring the surface position information and the contact position information and the robot for performing operations such as grasping and transporting the target object 41 may be the same or different.

また、上記各実施形態においては、ロボット10は、組立型ロボットである場合について説明したが、組立型ロボットに限定されるものではなく、移動ロボットであってもよい。
さらに、上記各実施形態においては、地図情報は3次元の情報である場合について説明したが、地図情報は2次元の情報でもよい。また、力計測部207により計測された力情報と位置計測部209により計測された位置情報との2つの情報のみに基づいて、地図情報を作成してもよい。
また、上記各実施形態においては、撮像装置31と光源32とは、レーザーレンジファインダ装置であってもよい。さらに、光源32を用いず、撮像装置31を2つ用いてステレオ計測を行ってもよいし、光源32を用いず撮像装置31を1つだけ用いてもよい。つまり、対象物体41と周辺物体42との表面位置を認識するための表面位置情報を計測できる構成であればよい。
Further, in each of the above embodiments, the case where the robot 10 is an assembly type robot has been described, but the robot 10 is not limited to the assembly type robot and may be a mobile robot.
Further, in each of the above embodiments, the case where the map information is three-dimensional information has been described, but the map information may be two-dimensional information. Further, the map information may be created based only on two pieces of information, the force information measured by the force measuring unit 207 and the position information measured by the position measuring unit 209.
Further, in each of the above embodiments, the image pickup device 31 and the light source 32 may be a laser range finder device. Further, stereo measurement may be performed using two image pickup devices 31 without using the light source 32, or only one image pickup device 31 may be used without using the light source 32. That is, the configuration may be such that the surface position information for recognizing the surface positions of the target object 41 and the peripheral object 42 can be measured.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10…ロボット、11…エンドエフェクタ、20,20´…情報処理装置、31…撮像装置、32…光源、33…力覚センサ、34…位置検出センサ、35…把持力計測センサ、41…対象物体、42…周辺物体、100…ロボットシステム 10 ... Robot, 11 ... End effector, 20, 20'... Information processing device, 31 ... Imaging device, 32 ... Light source, 33 ... Force sensor, 34 ... Position detection sensor, 35 ... Gripping force measurement sensor, 41 ... Target object , 42 ... peripheral objects, 100 ... robot system

Claims (16)

対象物体と周辺物体からなる物体を認識する情報処理装置であって、
物体の表面位置情報を取得する取得手段と、
前記取得手段により取得された前記表面位置情報に基づいて、前記物体を実測するための計測位置を決定する決定手段と、
前記決定手段により決定された前記計測位置において前記物体に接触したときの接触位置情報を計測する計測手段と、
前記計測手段により計測された前記接触位置情報に基づいて、前記物体の空間的な位置情報を示す地図情報を作成する作成手段と、
前記作成手段により作成された前記地図情報に基づいて、前記物体の位置および姿勢を認識する認識手段と、を備え
前記計測手段は、接近した前記物体までの距離を取得する距離の取得手段を備え、
前記物体に接触しているときに前記距離の取得手段によって取得された距離に基づいて、前記接触位置情報を計測することを特徴とする情報処理装置。
An information processing device that recognizes an object consisting of an object and surrounding objects.
An acquisition method for acquiring surface position information of an object,
A determination means for determining a measurement position for actually measuring the object based on the surface position information acquired by the acquisition means.
A measuring means for measuring contact position information when the object is touched at the measuring position determined by the determining means, and a measuring means.
A creating means for creating map information indicating the spatial position information of the object based on the contact position information measured by the measuring means, and
A recognition means for recognizing the position and orientation of the object based on the map information created by the creation means is provided .
The measuring means includes a distance acquiring means for acquiring the distance to the approaching object.
Based on the distance obtained by the distance obtaining means when in contact with the object, the information processing apparatus characterized that you measure the contact position information.
前記作成手段は、
前記取得手段により取得された前記表面位置情報に基づいて前記地図情報を作成する第一の作成手段と、
前記計測手段により計測された前記接触位置情報に基づいて、前記第一の作成手段により作成された前記地図情報を更新する第二の作成手段を備えることを特徴とする請求項1に記載の情報処理装置。
The creation means
A first creating means for creating the map information based on the surface position information acquired by the acquiring means, and
The information according to claim 1, further comprising a second creating means for updating the map information created by the first creating means based on the contact position information measured by the measuring means. Processing equipment.
前記決定手段は、
前記取得手段により取得された前記表面位置情報に基づいて、前記物体の表面が凸形状である位置を検出し、検出した位置を前記計測位置として決定することを特徴とする請求項1または2に記載の情報処理装置。
The determination means is
The first or second claim is characterized in that a position where the surface of the object has a convex shape is detected based on the surface position information acquired by the acquisition means, and the detected position is determined as the measurement position. The information processing device described.
前記取得手段は、
前記物体を撮像した画像情報に基づいて、前記表面位置情報を取得することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
The acquisition means
The information processing apparatus according to any one of claims 1 to 3, wherein the surface position information is acquired based on the image information obtained by capturing an image of the object.
前記計測手段は、
前記物体に接触したときの反力を取得する反力の取得手段と、
前記物体との接触点の位置を取得する位置の取得手段と、をさらに備え、
前記反力の取得手段によって取得された反力が所定の上限値に達したときに前記位置の取得手段によって取得された前記接触点の位置を、前記接触位置情報として計測することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
The measuring means
A means for obtaining a reaction force when it comes into contact with the object, and a means for obtaining the reaction force .
Further provided with a position acquisition means for acquiring the position of the contact point with the object,
When the reaction force acquired by the reaction force acquisition means reaches a predetermined upper limit value, the position of the contact point acquired by the position acquisition means is measured as the contact position information. The information processing apparatus according to any one of claims 1 to 4.
前記認識手段により認識された前記物体の位置および姿勢に基づいて、ロボットが前記物体を把持可能な把持位置を決定する第二の決定手段をさらに備えることを特徴とする請求項1からのいずれか1項に記載の情報処理装置。 Any of claims 1 to 5 , further comprising a second determining means for determining a gripping position where the robot can grip the object based on the position and posture of the object recognized by the recognition means. The information processing apparatus according to item 1. 前記第二の決定手段は、
周囲に前記ロボットの把持部が挿入可能な空間を有する位置を、前記把持位置として決定することを特徴とする請求項に記載の情報処理装置。
The second determination means is
The information processing apparatus according to claim 6 , wherein a position having a space in which the grip portion of the robot can be inserted is determined as the grip position.
前記第二の決定手段により決定された前記把持位置において前記物体を把持したときの把持幅情報を計測する第二の計測手段をさらに備え、
前記認識手段は、
前記第二の計測手段により計測された前記把持幅情報をさらに用いて、前記物体の位置および姿勢を認識することを特徴とする請求項またはに記載の情報処理装置。
A second measuring means for measuring gripping width information when the object is gripped at the gripping position determined by the second determining means is further provided.
The recognition means
The information processing apparatus according to claim 6 or 7 , wherein the position and orientation of the object are recognized by further using the grip width information measured by the second measuring means.
前記請求項1からのいずれか1項に記載の情報処理装置に、前記物体に対して作業を実行するロボットの動作を制御する制御手段を備えることを特徴とするロボット制御装置。 The robot control device according to any one of claims 1 to 8 , further comprising a control means for controlling the operation of a robot that executes work on the object. 前記請求項に記載のロボット制御装置に、センサおよび前記ロボットの少なくとも一方を備えることを特徴とするロボットシステム。 A robot system according to claim 9 , wherein the robot control device includes at least one of a sensor and the robot. 前記センサは、前記物体を撮像し画像情報を取得する視覚センサを含むことを特徴とする請求項1に記載のロボットシステム。 The sensor robot system according to claim 1 0, characterized in that it comprises a visual sensor for obtaining image information by imaging the object. 前記センサは、前記物体に接触したときの反力を取得する力覚センサを含むことを特徴とする請求項1または1に記載のロボットシステム。 The sensor robot system according to claim 1 0 or 1 1, characterized in that it comprises a force sensor to obtain the reaction force when in contact with the object. 前記センサは、前記ロボットの位置および姿勢を取得する位置検出センサを含むことを特徴とする請求項1から1のいずれか1項に記載のロボットシステム。 The sensor robot system according to any one of claims 1 0 to 1 2, characterized in that it comprises a position detection sensor for acquiring the position and orientation of the robot. 前記センサは、前記物体を把持したときの反力を取得する力覚センサを含むことを特徴とする請求項1から1のいずれか1項に記載のロボットシステム。 The sensor robot system according to any one of claims 1 0 to 1 3, characterized in that it comprises a force sensor to obtain the reaction force when gripping the object. 対象物体と周辺物体からなる物体の表面位置情報を取得するステップと、
取得された前記表面位置情報に基づいて、前記物体を実測するための計測位置を決定するステップと、
決定された前記計測位置において前記物体に接触したときの接触位置情報を計測するステップと、
計測された前記接触位置情報に基づいて、前記物体の空間的な位置情報を示す地図情報を作成するステップと、
作成された前記地図情報に基づいて、前記物体の位置および姿勢を認識するステップと、を含み、
前記接触位置情報を計測するステップは、接近した前記物体までの距離を取得するステップを含み、
前記物体に接触しているときに前記距離を取得するステップにおいて取得された距離に基づいて、前記接触位置情報を計測することを特徴とする情報処理方法。
Steps to acquire surface position information of an object consisting of a target object and surrounding objects,
Based on the acquired surface position information, a step of determining a measurement position for actually measuring the object, and
A step of measuring contact position information when the object is touched at the determined measurement position, and
Based on the measured contact position information, a step of creating map information indicating the spatial position information of the object, and
Based on the map information created, viewed contains a recognizing step the position and orientation of the object,
The step of measuring the contact position information includes a step of acquiring the distance to the approaching object.
An information processing method characterized in that the contact position information is measured based on the distance acquired in the step of acquiring the distance when in contact with the object .
コンピュータを、前記請求項1からのいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 8 .
JP2016092681A 2015-07-29 2016-05-02 Information processing device, information processing method, robot control device and robot system Active JP6752615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/209,489 US10335951B2 (en) 2015-07-29 2016-07-13 Information processing apparatus, information processing method, robot control apparatus, and robot system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015149244 2015-07-29
JP2015149244 2015-07-29
JP2016019296 2016-02-03
JP2016019296 2016-02-03

Publications (2)

Publication Number Publication Date
JP2017136677A JP2017136677A (en) 2017-08-10
JP6752615B2 true JP6752615B2 (en) 2020-09-09

Family

ID=59566515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092681A Active JP6752615B2 (en) 2015-07-29 2016-05-02 Information processing device, information processing method, robot control device and robot system

Country Status (1)

Country Link
JP (1) JP6752615B2 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6902208B2 (en) * 2017-11-14 2021-07-14 オムロン株式会社 Gripping method, gripping system and program
KR102109696B1 (en) * 2017-12-12 2020-05-13 한국로봇융합연구원 Robot hand for grasping unknown object and control method thereof
KR102109697B1 (en) * 2017-12-12 2020-05-13 한국로봇융합연구원 Robot hand for grasping object by using visual information and tactual information and control method thereof
KR102067878B1 (en) * 2017-12-12 2020-01-17 한국로봇융합연구원 Robot hand for performing task using regrasping and control method thereof
JP6911777B2 (en) * 2018-01-23 2021-07-28 トヨタ自動車株式会社 Motion trajectory generator
US11738457B2 (en) 2018-03-21 2023-08-29 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP7154815B2 (en) * 2018-04-27 2022-10-18 キヤノン株式会社 Information processing device, control method, robot system, computer program, and storage medium
JPWO2020008538A1 (en) * 2018-07-03 2020-07-27 三菱電機株式会社 Material estimation device and robot
JP2020011320A (en) * 2018-07-17 2020-01-23 オムロン株式会社 Parameter identification device, method and program
KR102281218B1 (en) * 2018-12-17 2021-07-23 한국전자기술연구원 Flexible object recognition apparatus and method
CN110201897A (en) * 2019-06-20 2019-09-06 深圳市涛卉杯业有限公司 A kind of classification mechanical arm for plastic bottle production line
WO2021033509A1 (en) * 2019-08-21 2021-02-25 ソニー株式会社 Information processing device, information processing method, and program
CN115397628A (en) * 2020-04-14 2022-11-25 实时机器人有限公司 Robot operating environment configuration including sensor layout
WO2022114042A1 (en) 2020-11-30 2022-06-02 住友重機械工業株式会社 Information processing device, and picking device
WO2022185761A1 (en) * 2021-03-04 2022-09-09 ソニーグループ株式会社 Information processing system, information processing method, and information processing device
JP7446028B1 (en) 2023-06-16 2024-03-08 株式会社ユニテック Picking equipment, picking system, picking method and program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6039087A (en) * 1983-08-12 1985-02-28 ダイセル化学工業株式会社 Robot
JPS62148177A (en) * 1985-12-19 1987-07-02 株式会社東芝 Manipulator hand
JPS63256383A (en) * 1987-04-13 1988-10-24 富士通株式会社 Method of controlling robot
JPH04146090A (en) * 1990-10-05 1992-05-20 Nippon Telegr & Teleph Corp <Ntt> Article holding and moving method using robot
JPH04240087A (en) * 1991-01-21 1992-08-27 Fuji Electric Co Ltd Gripping method and device
JPH04289087A (en) * 1991-02-21 1992-10-14 Mitsubishi Electric Corp Robot device
JPH05318363A (en) * 1992-05-21 1993-12-03 Sanyo Electric Co Ltd Method for controlling robot
JP3239277B2 (en) * 1992-07-15 2001-12-17 富士通株式会社 Intelligent robot
JPH1124718A (en) * 1997-07-07 1999-01-29 Toshiba Corp Device and method for controlling robot
KR100454714B1 (en) * 2002-02-16 2004-11-05 한국과학기술연구원 Working robot, actuator therefor and control method therefor
JP4962123B2 (en) * 2007-04-27 2012-06-27 日産自動車株式会社 Gripping candidate position selection device, gripping candidate position selection method, gripping route generation device, and gripping route generation method
DE102007026956A1 (en) * 2007-06-12 2008-12-18 Kuka Innotec Gmbh Method and system for robot-guided depalletizing of tires
JP5500926B2 (en) * 2009-09-29 2014-05-21 キヤノン株式会社 Object gripping control method and apparatus
JP5505138B2 (en) * 2010-07-05 2014-05-28 株式会社安川電機 Robot apparatus and gripping method using robot apparatus
JP5891698B2 (en) * 2011-10-12 2016-03-23 セイコーエプソン株式会社 robot
JP5788460B2 (en) * 2013-11-05 2015-09-30 ファナック株式会社 Apparatus and method for picking up loosely stacked articles by robot

Also Published As

Publication number Publication date
JP2017136677A (en) 2017-08-10

Similar Documents

Publication Publication Date Title
JP6752615B2 (en) Information processing device, information processing method, robot control device and robot system
US10335951B2 (en) Information processing apparatus, information processing method, robot control apparatus, and robot system
JP7154815B2 (en) Information processing device, control method, robot system, computer program, and storage medium
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
US10800033B2 (en) Robot control apparatus, robot control method, robot system, and storage medium
JP6586532B2 (en) Deep machine learning method and apparatus for robot gripping
US20190061151A1 (en) Article stacking apparatus and machine learning apparatus
US11541545B2 (en) Information processing apparatus, information processing method, and system
JP5281414B2 (en) Method and system for automatic workpiece gripping
JP5778311B1 (en) Picking apparatus and picking method
US20180004188A1 (en) Robot, robot control apparatus and robot system
CN111601761A (en) Robotic system with automated package scanning and registration mechanism and method of operation thereof
CN108858193B (en) Mechanical arm grabbing method and system
CN105598987B (en) Determination of a gripping space for an object by means of a robot
CN110465951B (en) Method, apparatus, computer readable storage medium and computer program for robot programming
JP2019188516A (en) Information processor, information processing method, and program
TWI827907B (en) Robot control devices, control methods, robots and their systems, learning devices, methods and computer program products
JP6541397B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
CN110587592B (en) Robot control device, robot control method, and computer-readable recording medium
CN112292235A (en) Robot control device, robot control method, and robot control program
CN110914021A (en) Operating device with an operating device for carrying out at least one work step, and method and computer program
GB2621007A (en) Controlling a robotic manipulator for packing an object
US20230030852A1 (en) Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
CN117794704A (en) Robot control device, robot control system, and robot control method
Shauri et al. Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200819

R151 Written notification of patent or utility model registration

Ref document number: 6752615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151