JP2017136677A - Information processing apparatus, information processing method, robot control apparatus, and robot system - Google Patents

Information processing apparatus, information processing method, robot control apparatus, and robot system Download PDF

Info

Publication number
JP2017136677A
JP2017136677A JP2016092681A JP2016092681A JP2017136677A JP 2017136677 A JP2017136677 A JP 2017136677A JP 2016092681 A JP2016092681 A JP 2016092681A JP 2016092681 A JP2016092681 A JP 2016092681A JP 2017136677 A JP2017136677 A JP 2017136677A
Authority
JP
Japan
Prior art keywords
information
robot
target object
measurement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016092681A
Other languages
Japanese (ja)
Other versions
JP6752615B2 (en
Inventor
山田 大輔
Daisuke Yamada
大輔 山田
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小林 一彦
Kazuhiko Kobayashi
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/209,489 priority Critical patent/US10335951B2/en
Publication of JP2017136677A publication Critical patent/JP2017136677A/en
Application granted granted Critical
Publication of JP6752615B2 publication Critical patent/JP6752615B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately recognize a position and a posture of a target object even when the target object cannot be accurately recognized even by surface position information.SOLUTION: The information processing apparatus includes acquisition means for acquiring surface position information about an object, determination means for determining a measurement position for measuring the object based on the surface position information acquired by the acquisition means, measurement means for measuring contact position information when it contacts the object at the measurement position determined by the determination means, generation means for generating map information representing spatial position information about the object based on the contact position information measured by the measurement means, and recognition means for recognizing a position and a posture of the object based on the map information generated by the generation means.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、ロボット制御装置及びロボットシステムに関する。   The present invention relates to an information processing apparatus, an information processing method, a robot control apparatus, and a robot system.

従来、乱雑に山積みされた対象物体を1つ1つロボットが把持するための技術として、視覚センサを用いて対象物体の位置および姿勢を把握するロボット装置が知られている。特許文献1には、対象物体と同一形状の物体を複数の方向から撮像して教示モデルを作成しておき、教示モデルと山積みされた対象物体を撮像した画像データとのマッチングを行うことで、対象物体の位置および姿勢を認識することが開示されている。   2. Description of the Related Art Conventionally, a robot apparatus that uses a visual sensor to grasp the position and orientation of a target object is known as a technique for a robot to grip target objects that are randomly stacked. In Patent Document 1, a teaching model is created by imaging an object having the same shape as the target object from a plurality of directions, and matching is performed between the teaching model and image data obtained by imaging the stacked target objects. Recognizing the position and orientation of a target object is disclosed.

特許第3300682号公報Japanese Patent No. 3300682

視覚センサを用いた計測では、撮像した物体の表面位置の情報しか取得することができない。そのため、上記特許文献1に記載の技術では、対象物体がビニール袋や緩衝材によって包まれている場合、画像データ内の対象物体が教示モデルとマッチングしない。したがって、この場合、ビニール袋や緩衝材に包まれた中身である対象物体の位置および姿勢を適切に認識できず、ロボットは対象物体を把持することができない。
そこで、本発明は、表面位置情報だけでは対象物体を正確に認識できない場合であっても、対象物体の位置および姿勢を適切に認識することを目的とする。
In measurement using a visual sensor, only information on the surface position of an imaged object can be acquired. Therefore, in the technique described in Patent Document 1, when the target object is wrapped with a plastic bag or a cushioning material, the target object in the image data does not match the teaching model. Therefore, in this case, the position and posture of the target object that is the contents wrapped in the plastic bag or the cushioning material cannot be properly recognized, and the robot cannot grip the target object.
Accordingly, an object of the present invention is to appropriately recognize the position and orientation of a target object even when the target object cannot be accurately recognized only by surface position information.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、対象物体と周辺物体からなる物体を認識する情報処理装置であって、物体の表面位置情報を取得する取得手段と、前記取得手段により取得された前記表面位置情報に基づいて、前記物体を実測するための計測位置を決定する決定手段と、前記決定手段により決定された前記計測位置において前記物体に接触したときの接触位置情報を計測する計測手段と、前記計測手段により計測された前記接触位置情報に基づいて、前記物体の空間的な位置情報を示す地図情報を作成する作成手段と、前記作成手段により作成された前記地図情報に基づいて、前記物体の位置および姿勢を認識する認識手段と、を備える。   In order to solve the above-described problem, an aspect of the information processing apparatus according to the present invention is an information processing apparatus that recognizes an object including a target object and a peripheral object, and obtains a surface position information of the object Based on the surface position information acquired by the acquisition unit, a determination unit that determines a measurement position for actually measuring the object, and contact when the object is contacted at the measurement position determined by the determination unit A measurement unit that measures position information; a creation unit that creates map information indicating spatial position information of the object based on the contact position information measured by the measurement unit; and a creation unit created by the creation unit Recognition means for recognizing the position and orientation of the object based on the map information.

本発明によれば、表面位置情報だけでは対象物体を正確に認識できない場合であっても、対象物体の位置および姿勢を適切に認識することができる。   According to the present invention, even when the target object cannot be accurately recognized only by the surface position information, the position and orientation of the target object can be appropriately recognized.

第一の実施形態のロボットシステムの構成例を示す図である。It is a figure which shows the structural example of the robot system of 1st embodiment. 情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of information processing apparatus. 第一の実施形態における情報処理装置の機能ブロック図である。It is a functional block diagram of the information processor in a first embodiment. 第一の実施形態における動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement in 1st embodiment. 第一の実施形態における動作を説明するための図である。It is a figure for demonstrating the operation | movement in 1st embodiment. 第二の実施形態のロボットシステムの構成例を示す図である。It is a figure which shows the structural example of the robot system of 2nd embodiment. 第二の実施形態における情報処理装置の機能ブロック図である。It is a functional block diagram of the information processor in a second embodiment. 第二の実施形態における動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement in 2nd embodiment. 第三の実施形態のロボットシステムの構成例を示す図である。It is a figure which shows the structural example of the robot system of 3rd embodiment.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
第一の実施形態では、撮像装置により撮像して得られた物体(対象物体およびその周辺の周辺物体)の画像情報をもとに計測した物体の3次元位置情報と、力覚センサによる計測情報とを統合して、物体の地図情報を作成する。そして、作成した地図情報を利用して、対象物体の位置および姿勢を認識する。本実施形態において、対象物体とは、ロボットによる操作の対象となる物体であり、例えばビニール袋や緩衝材に包まれたトナーカートリッジのような部品を含む。また、力覚センサによる計測とは、力覚センサによってロボットが物体へ接触していることが検知されているときに、位置検出センサによってロボットによる接触位置を計測することをいう。さらに、地図情報とは、対象物体および周辺物体の空間的な位置情報である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
(First embodiment)
In the first embodiment, three-dimensional position information of an object measured based on image information of an object (target object and surrounding peripheral objects) obtained by imaging with an imaging device, and measurement information by a force sensor To create object map information. Then, the position and orientation of the target object are recognized using the created map information. In this embodiment, the target object is an object to be operated by the robot, and includes, for example, parts such as a plastic bag or a toner cartridge wrapped in a buffer material. Moreover, the measurement by a force sensor means measuring the contact position by a robot by a position detection sensor when it is detected that the robot is contacting an object by the force sensor. Further, the map information is spatial position information of the target object and surrounding objects.

図1は、本実施形態における情報処理装置20を備えるロボットシステム100の構成例を示す図である。
ロボットシステム100は、ロボット10と、情報処理装置20と、を備える。ロボット10は、例えば多関節ロボットであり、ロボットアーム等のマニピュレータや、ロボットハンド等のエンドエフェクタ11を備える。また、ロボット10は、マニピュレータの各関節の角度を変更することでエンドエフェクタ11の位置姿勢を変更可能な位置姿勢変更機構を備える。位置姿勢変更機構は、電動モータによって駆動されてもよいし、油圧や空気圧等の流体圧で作動するアクチュエータによって駆動されてもよい。この位置姿勢変更機構は、情報処理装置20から出力される動作指示情報に従って駆動される。
FIG. 1 is a diagram illustrating a configuration example of a robot system 100 including an information processing apparatus 20 according to the present embodiment.
The robot system 100 includes a robot 10 and an information processing device 20. The robot 10 is an articulated robot, for example, and includes a manipulator such as a robot arm and an end effector 11 such as a robot hand. Further, the robot 10 includes a position / orientation changing mechanism that can change the position / orientation of the end effector 11 by changing the angle of each joint of the manipulator. The position / orientation changing mechanism may be driven by an electric motor, or may be driven by an actuator that operates with fluid pressure such as hydraulic pressure or air pressure. The position / orientation changing mechanism is driven in accordance with operation instruction information output from the information processing apparatus 20.

また、エンドエフェクタ11は、ロボット10の対象物体の種類に応じた操作を実現するためのツールであり、モータ駆動可能なチャック機構を有し対象物体を把持可能なハンドや、空気圧で対象物体を吸着する吸着パッドを用いたハンドを用いることができる。なお、エンドエフェクタ11は、ロボットアームに対して着脱可能に取り付けられており、ワークの種類に応じて交換可能である。また、ロボット10は、多関節ロボットに限定されるものではなく、数値制御(Numerical Control:NC)可能な可動式の機械であってもよい。   The end effector 11 is a tool for realizing an operation according to the type of the target object of the robot 10. The end effector 11 has a chuck mechanism that can be driven by a motor and can hold the target object. A hand using a suction pad to be sucked can be used. The end effector 11 is detachably attached to the robot arm, and can be exchanged according to the type of workpiece. The robot 10 is not limited to an articulated robot, and may be a movable machine capable of numerical control (NC).

ロボット10は、情報処理装置20によって決定された行動を実施し、対象物体41を搬送したり把持したりする操作を実行する。本実施形態において、行動とは、対象物体41を認識あるいは操作するためのロボット10の動作のことである。
対象物体41は、トナーカートリッジのような、ロボット10によって把持され搬送されることが想定される部品であり、ビニール袋や緩衝材に包まれている場合もある。つまり、対象物体41の周辺には、対象物体41を包んでいるビニール袋や緩衝材といった周辺物体42が存在する。なお、周辺物体42は、対象物体41の周辺に位置する対象物体41以外の全ての物体であり、例えば、山積みされた対象物体41を収容している容器や、その容器の周辺に置かれた物体も含む。
The robot 10 performs an action determined by the information processing apparatus 20 and performs an operation of transporting or grasping the target object 41. In the present embodiment, the action is an operation of the robot 10 for recognizing or operating the target object 41.
The target object 41 is a part such as a toner cartridge that is supposed to be gripped and transported by the robot 10 and may be wrapped in a plastic bag or a buffer material. That is, a peripheral object 42 such as a plastic bag or a cushioning material surrounding the target object 41 exists around the target object 41. The peripheral object 42 is all objects other than the target object 41 located around the target object 41. For example, the peripheral object 42 is placed in a container containing the stacked target objects 41 or around the container. Includes objects.

また、ロボットシステム100は、撮像装置31と、光源32と、力覚センサ33と、位置検出センサ34とをさらに備える。
撮像装置31は、カメラや、光を検出するセンサ、フォトダイオードなどで構成される視覚センサであり、対象物体41および周辺物体42の画像情報を取得する。撮像装置31は、取得した画像情報を情報処理装置20に出力する。光源32は、例えばプロジェクタによって構成され、可視光を出射したり、レーザ光源から赤外光を出射したりすることで、対象物体41および周辺物体42に対して均一照明光やパターン光を投射する。撮像装置31は、光源32によって光が投射された対象物体41および周辺物体42の画像を撮像する。なお、撮像装置31は、光源32によって光が投射されていない状態で、対象物体41および周辺物体42の画像を撮像することもできる。撮像装置31および光源32は、図1に示すように、撮像対象空間の上方に固定配置してもよいし、ロボット10に搭載したり、他の作業機械に搭載したりしてもよい。また、撮像装置31は複数配置してもよい。
The robot system 100 further includes an imaging device 31, a light source 32, a force sensor 33, and a position detection sensor 34.
The imaging device 31 is a visual sensor including a camera, a sensor that detects light, a photodiode, and the like, and acquires image information of the target object 41 and the peripheral object 42. The imaging device 31 outputs the acquired image information to the information processing device 20. The light source 32 is configured by, for example, a projector, and projects uniform illumination light and pattern light onto the target object 41 and the peripheral object 42 by emitting visible light or emitting infrared light from a laser light source. . The imaging device 31 captures images of the target object 41 and the peripheral object 42 onto which light is projected by the light source 32. Note that the imaging device 31 can also capture images of the target object 41 and the peripheral object 42 in a state where light is not projected by the light source 32. As illustrated in FIG. 1, the imaging device 31 and the light source 32 may be fixedly disposed above the imaging target space, may be mounted on the robot 10, or may be mounted on another work machine. A plurality of imaging devices 31 may be arranged.

力覚センサ33は、ロボット10のエンドエフェクタ11の基部に取り付けられている。この力覚センサ33は、歪みゲージや圧電素子によって構成され、ロボット10が対象物体41あるいは周辺物体42に接触しているときのロボット10にかかる力(反力)を計測し、計測結果である力覚情報を情報処理装置20へ出力する。力覚センサ33は、6軸力覚センサ(Force/Torqueセンサ)であってもよいし、3軸力覚センサであってもよい。また、力覚センサ33は、1次元の圧力センサであってもよいし、接触の有無を判別する接触センサであってもよい。   The force sensor 33 is attached to the base of the end effector 11 of the robot 10. The force sensor 33 is configured by a strain gauge or a piezoelectric element, and measures the force (reaction force) applied to the robot 10 when the robot 10 is in contact with the target object 41 or the peripheral object 42 and is a measurement result. The haptic information is output to the information processing apparatus 20. The force sensor 33 may be a 6-axis force sensor (Force / Torque sensor) or a 3-axis force sensor. Further, the force sensor 33 may be a one-dimensional pressure sensor or a contact sensor that determines the presence or absence of contact.

位置検出センサ34は、ロボット10の位置を検出し、検出結果である位置検出情報を情報処理装置20へ出力する。位置検出センサ34は、ロボット10に取り付けられたエンコーダを含んで構成され、エンコーダから取得した角度情報をもとに順運動学を用いることで、ロボット10の位置を検出することができる。この位置検出センサ34は、力覚センサ33と一緒に用いられることで、ロボット10が対象物体41や周辺物体42に接触しているときのロボット10の位置を検出することができる。なお、ロボット10の位置を検出する方法は、上記の位置検出センサ34を用いる方法に限定されない。   The position detection sensor 34 detects the position of the robot 10 and outputs position detection information as a detection result to the information processing apparatus 20. The position detection sensor 34 is configured to include an encoder attached to the robot 10, and can detect the position of the robot 10 by using forward kinematics based on angle information acquired from the encoder. The position detection sensor 34 can be used together with the force sensor 33 to detect the position of the robot 10 when the robot 10 is in contact with the target object 41 or the peripheral object 42. The method for detecting the position of the robot 10 is not limited to the method using the position detection sensor 34 described above.

情報処理装置20は、ロボット10の動作を制御するロボット制御装置である。情報処理装置20は、例えばパーソナルコンピュータ(PC)により構成されている。図2は、情報処理装置20のハードウェア構成の一例である。情報処理装置20は、CPU21と、ROM22と、RAM23と、外部メモリ24と、入力部25と、表示部26と、通信I/F27と、システムバス28とを備える。
CPU21は、情報処理装置20における動作を統括的に制御するものであり、システムバス28を介して、各構成部(22〜27)を制御する。ROM22は、CPU21が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM23は、CPU21の主メモリ、ワークエリアとして機能する。すなわち、CPU21は、処理の実行に際してROM22から必要なプログラムをRAM23にロードし、当該プログラムを実行することで各種の機能動作を実現する。
The information processing apparatus 20 is a robot control apparatus that controls the operation of the robot 10. The information processing apparatus 20 is configured by, for example, a personal computer (PC). FIG. 2 is an example of a hardware configuration of the information processing apparatus 20. The information processing apparatus 20 includes a CPU 21, a ROM 22, a RAM 23, an external memory 24, an input unit 25, a display unit 26, a communication I / F 27, and a system bus 28.
The CPU 21 controls the operation of the information processing apparatus 20 in an integrated manner, and controls each component (22 to 27) via the system bus 28. The ROM 22 is a non-volatile memory that stores a program necessary for the CPU 21 to execute processing. The program may be stored in the external memory 24 or a removable storage medium (not shown). The RAM 23 functions as a main memory and work area for the CPU 21. That is, the CPU 21 loads various programs from the ROM 22 to the RAM 23 when executing the processes, and implements various functional operations by executing the programs.

外部メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、外部メモリ24には、例えば、CPU21がプログラムを用いた処理を行うことにより得られた各種データや各種情報が記憶される。入力部25は、例えばキーボードやマウスのポインティングデバイスにより構成され、オペレータが入力部25を介して当該情報処理装置20に指示を与えることができるようになっている。表示部26は、液晶ディスプレイ(LCD)等のモニタで構成される。通信I/F27は、外部機器と通信するためのインターフェースである。システムバス28は、CPU21、ROM22、RAM23、外部メモリ24、入力部25、表示部26及び通信I/F27を通信可能に接続する。
このように、情報処理装置20は、通信I/F27を介して、外部機器であるロボット10、撮像装置31、光源32、力覚センサ33とそれぞれ通信可能に接続されており、これらの外部機器の動作を制御する。
The external memory 24 stores various data and various information necessary for the CPU 21 to perform processing using a program, for example. The external memory 24 stores various data and various information obtained by the CPU 21 performing processing using a program, for example. The input unit 25 is configured by, for example, a keyboard or a mouse pointing device, and an operator can give an instruction to the information processing apparatus 20 via the input unit 25. The display unit 26 includes a monitor such as a liquid crystal display (LCD). The communication I / F 27 is an interface for communicating with an external device. The system bus 28 connects the CPU 21, ROM 22, RAM 23, external memory 24, input unit 25, display unit 26, and communication I / F 27 so that they can communicate with each other.
In this way, the information processing apparatus 20 is connected to the robot 10, which is an external device, the imaging device 31, the light source 32, and the force sensor 33 via the communication I / F 27 so as to be able to communicate with each other. To control the operation.

図3は、情報処理装置20の機能ブロック図である。
情報処理装置20は、画像取得部201と、表面位置計測部202と、地図情報作成部203と、計測位置決定部204と、行動計画部205と、を備える。さらに、情報処理装置20は、力覚情報取得部206と、力計測部207と、位置情報取得部208と、位置計測部209と、把持位置決定部210と、を備える。表面位置計測部202、地図情報作成部203、計測位置決定部204、力計測部207および位置計測部209によって、対象物体41の位置および姿勢を認識する処理を行う認識部220を構成している。この認識部220は物体認識装置として動作することができる。
画像取得部201は、撮像装置31から出力される画像情報を取得する。画像取得部201は、取得した画像情報を画像データに変換し、表面位置計測部202に出力する。画像取得部201は、例えばキャプチャボードやメモリ(RAM)によって構成される。表面位置計測部202は、画像取得部201から取得した画像データに基づいて、対象物体41および周辺物体42の表面位置の情報(表面位置情報)を計測する。表面位置計測部202は、計測した表面位置情報を地図情報作成部203へ出力する。
FIG. 3 is a functional block diagram of the information processing apparatus 20.
The information processing apparatus 20 includes an image acquisition unit 201, a surface position measurement unit 202, a map information creation unit 203, a measurement position determination unit 204, and an action plan unit 205. Furthermore, the information processing apparatus 20 includes a force sense information acquisition unit 206, a force measurement unit 207, a position information acquisition unit 208, a position measurement unit 209, and a gripping position determination unit 210. The surface position measurement unit 202, the map information creation unit 203, the measurement position determination unit 204, the force measurement unit 207, and the position measurement unit 209 constitute a recognition unit 220 that performs processing for recognizing the position and orientation of the target object 41. . The recognition unit 220 can operate as an object recognition device.
The image acquisition unit 201 acquires image information output from the imaging device 31. The image acquisition unit 201 converts the acquired image information into image data and outputs the image data to the surface position measurement unit 202. The image acquisition unit 201 is configured by, for example, a capture board or a memory (RAM). The surface position measurement unit 202 measures information (surface position information) on the surface positions of the target object 41 and the peripheral object 42 based on the image data acquired from the image acquisition unit 201. The surface position measurement unit 202 outputs the measured surface position information to the map information creation unit 203.

地図情報作成部203は、表面位置計測部202によって計測された表面位置情報と、後述する力計測部207によって計測された力情報と、後述する位置計測部209によって計測された位置情報とに基づいて地図情報を作成する。なお、地図情報作成部203は、位置計測部209を介して力計測部207によって計測された力情報を取得する。地図情報とは、対象物体41および周辺物体42の空間的な位置情報であり、本実施形態では、3次元の空間内における対象物体41および周辺物体42の位置情報とする。地図情報作成部203は、まず、表面位置情報に基づいて地図情報を作成し、その後、力情報と位置情報とに基づいて、表面位置情報に基づいて作成した地図情報を更新することで、詳細な地図情報を作成する。   The map information creation unit 203 is based on surface position information measured by the surface position measurement unit 202, force information measured by a force measurement unit 207 described later, and position information measured by a position measurement unit 209 described later. To create map information. The map information creating unit 203 acquires force information measured by the force measuring unit 207 via the position measuring unit 209. The map information is spatial position information of the target object 41 and the peripheral object 42. In the present embodiment, the map information is position information of the target object 41 and the peripheral object 42 in a three-dimensional space. The map information creation unit 203 first creates map information based on the surface position information, and then updates the map information created based on the surface position information based on the force information and the position information. The correct map information.

画像データをもとに計測された表面位置情報により、対象物体41および周辺物体42の表面位置を求めることができる。しかしながら、上述したように、対象物体41がビニール袋に包まれたトナーカートリッジである場合、表面位置情報により求まる表面位置は、ビニール袋の表面位置でありトナーカートリッジの表面位置ではない。このように、画像データをもとに計測される表面位置情報からは、対象物体41の正確な位置および姿勢を求めることができない場合がある。   The surface positions of the target object 41 and the peripheral object 42 can be obtained from the surface position information measured based on the image data. However, as described above, when the target object 41 is a toner cartridge wrapped in a plastic bag, the surface position obtained from the surface position information is the surface position of the plastic bag, not the surface position of the toner cartridge. As described above, there are cases where the exact position and orientation of the target object 41 cannot be obtained from the surface position information measured based on the image data.

そこで、本実施形態では、より正確に対象物体41を認識するために、ロボット10により対象物体41に直接触れ、対象物体41を計測する。具体的には、力覚センサ33および位置検出センサ34を用いて、ロボット10が対象物体41に接触したときのロボット10の位置情報(接触位置情報)を計測する。そして、計測したロボット10の位置情報を用いて地図情報を更新する。つまり、地図情報作成部203は、地図情報の作成にあたり、撮像装置31を用いて計測した対象物体41の表面位置に対して、力覚センサ33および位置検出センサ34を用いて実際に対象物体41に触って計測した、対象物体41の詳細位置の結果を加える。このようにして、対象物体41の位置および姿勢をより詳細に計測する。地図情報作成部203は、作成した地図情報を、計測位置決定部204や把持位置決定部210に出力する。   Therefore, in this embodiment, in order to recognize the target object 41 more accurately, the target object 41 is directly touched by the robot 10 and the target object 41 is measured. Specifically, position information (contact position information) of the robot 10 when the robot 10 contacts the target object 41 is measured using the force sensor 33 and the position detection sensor 34. Then, the map information is updated using the measured position information of the robot 10. That is, the map information creating unit 203 actually creates the target object 41 using the force sensor 33 and the position detection sensor 34 with respect to the surface position of the target object 41 measured using the imaging device 31 when creating the map information. The result of the detailed position of the target object 41 measured by touching is added. In this way, the position and orientation of the target object 41 are measured in more detail. The map information creation unit 203 outputs the created map information to the measurement position determination unit 204 and the grip position determination unit 210.

計測位置決定部204は、地図情報作成部203から入力した地図情報に基づいて、対象物体41の詳細な位置および姿勢を実測するための計測位置を決定する。この計測位置決定部204に入力される地図情報は、地図情報作成部203により表面位置情報に基づいて作成された地図情報である。計測位置決定部204は、入力された地図情報を参照し、対象物体41の存在確率が高いと判断した位置を計測位置として決定する。計測位置決定部204は、決定した計測位置を行動計画部205に出力する。   The measurement position determination unit 204 determines a measurement position for actually measuring the detailed position and orientation of the target object 41 based on the map information input from the map information creation unit 203. The map information input to the measurement position determination unit 204 is map information created by the map information creation unit 203 based on the surface position information. The measurement position determination unit 204 refers to the input map information and determines the position determined as having a high existence probability of the target object 41 as the measurement position. The measurement position determination unit 204 outputs the determined measurement position to the action planning unit 205.

行動計画部205は、計測位置決定部204から入力した計測位置に基づいて、ロボット10の行動を計画する。具体的には、行動計画部205は、エンドエフェクタ11を計測位置に移動するためのロボット10の軌道と、計測位置における対象物体41への接触動作を実現するためのロボット10の軌道とを作成し、ロボット10へ動作指示情報を出力する。また、行動計画部205は、後述する把持位置決定部210から対象物体41の把持位置も入力可能である。行動計画部205は、把持位置を入力した場合、入力した把持位置に基づいてロボット10の行動を計画する。具体的には、行動計画部205は、エンドエフェクタ11を把持位置に移動するためのロボット10の軌道と、把持位置における対象物体41の把持動作を実現するためのロボット10の軌道とを作成し、ロボット10へ動作指示情報を出力する。   The behavior planning unit 205 plans the behavior of the robot 10 based on the measurement position input from the measurement position determination unit 204. Specifically, the action planning unit 205 creates a trajectory of the robot 10 for moving the end effector 11 to the measurement position and a trajectory of the robot 10 for realizing the contact operation to the target object 41 at the measurement position. The operation instruction information is output to the robot 10. The action planning unit 205 can also input the grip position of the target object 41 from the grip position determination unit 210 described later. When the action plan unit 205 inputs a grip position, the action plan unit 205 plans the action of the robot 10 based on the input grip position. Specifically, the action planning unit 205 creates a trajectory of the robot 10 for moving the end effector 11 to the gripping position and a trajectory of the robot 10 for realizing the gripping operation of the target object 41 at the gripping position. The operation instruction information is output to the robot 10.

力覚情報取得部206は、力覚センサ33から出力される力覚情報を取得し、取得した力覚情報を力計測部207へ出力する。力覚情報取得部206は、例えばメモリ(RAM)によって構成される。力計測部207は、力覚情報取得部206から入力した力覚情報に基づいて、対象物体41あるいは周辺物体42にロボット10のエンドエフェクタ11が接触しているときのロボット10にかかる力(反力)を計測する。力計測部207は、計測した力情報を位置計測部209に出力する。   The force information acquisition unit 206 acquires the force information output from the force sensor 33 and outputs the acquired force information to the force measurement unit 207. The haptic information acquisition unit 206 is configured by, for example, a memory (RAM). Based on the haptic information input from the haptic information acquisition unit 206, the force measuring unit 207 applies a force (reverse force) applied to the robot 10 when the end effector 11 of the robot 10 is in contact with the target object 41 or the peripheral object 42. Force). The force measuring unit 207 outputs the measured force information to the position measuring unit 209.

位置情報取得部208は、位置検出センサ34から出力される位置検出情報を取得し、取得した位置検出情報を位置計測部209へ出力する。位置情報取得部208は、例えばメモリ(RAM)によって構成される。位置計測部209は、力計測部207から入力した力情報と、位置情報取得部208から入力した位置検出情報とに基づいて、対象物体41あるいは周辺物体42にロボット10のエンドエフェクタ11が接触しているときの接触点の位置を計測する。位置計測部209は、計測した位置情報(接触位置情報)を地図情報作成部203に出力する。   The position information acquisition unit 208 acquires the position detection information output from the position detection sensor 34 and outputs the acquired position detection information to the position measurement unit 209. The position information acquisition unit 208 is configured by a memory (RAM), for example. Based on the force information input from the force measurement unit 207 and the position detection information input from the position information acquisition unit 208, the position measurement unit 209 makes contact with the target object 41 or the peripheral object 42 by the end effector 11 of the robot 10. Measure the position of the contact point when The position measurement unit 209 outputs the measured position information (contact position information) to the map information creation unit 203.

把持位置決定部210は、地図情報作成部203から出力される地図情報をもとに、対象物体41の把持位置を決定する。この把持位置決定部210に入力される地図情報は、地図情報作成部203により力情報および位置情報に基づいて作成された詳細な地図情報である。把持位置決定部210は、入力された地図情報を参照し、ロボット10が対象物体41を把持可能な位置を把持位置として決定する。把持位置決定部210は、決定した把持位置を行動計画部205に出力する。
図3に示す情報処理装置20の各部の機能は、図2に示すCPU21がROM22もしくは外部メモリ24に記憶されたプログラムを実行することで実現され得る。
The gripping position determination unit 210 determines the gripping position of the target object 41 based on the map information output from the map information creation unit 203. The map information input to the grip position determination unit 210 is detailed map information created by the map information creation unit 203 based on the force information and the position information. The gripping position determination unit 210 refers to the input map information and determines a position where the robot 10 can grip the target object 41 as a gripping position. The gripping position determination unit 210 outputs the determined gripping position to the action planning unit 205.
3 can be realized by the CPU 21 shown in FIG. 2 executing a program stored in the ROM 22 or the external memory 24.

以下、ロボットシステム100の動作について説明する。
図4は、情報処理装置20が実行するロボット制御処理手順を示すフローチャートである。図4に示される処理は、情報処理装置20のCPU21が、ROM22もしくは外部メモリ24に格納されたプログラムを読み出して実行することにより実現される。ただし、図4の処理の一部または全部が、専用のハードウェアにより実現されてもよい。図4の処理は、例えばオペレータがロボットシステム100を起動したときに開始される。ただし、開始のタイミングは、ロボットシステム100の起動時に限定されるものではない。
Hereinafter, the operation of the robot system 100 will be described.
FIG. 4 is a flowchart illustrating a robot control processing procedure executed by the information processing apparatus 20. The process shown in FIG. 4 is realized by the CPU 21 of the information processing apparatus 20 reading and executing a program stored in the ROM 22 or the external memory 24. However, part or all of the processing in FIG. 4 may be realized by dedicated hardware. The process in FIG. 4 is started when the operator activates the robot system 100, for example. However, the start timing is not limited to when the robot system 100 is activated.

先ずS1において、CPU21は、システムの初期化処理を行う。すなわち、CPU21は、ROM22もしくは外部メモリ24に格納されたプログラムをロードし、RAM23上に展開して実行可能な状態とする。また、情報処理装置20に接続された各機器のパラメータの読み込みや初期位置への復帰を行い、使用可能な状態にする。
次にS2において、画像処理部201は、撮像装置31が出力する対象物体41および周辺物体42の画像情報を取得し、S3に移行する。S3では、表面位置計測部202は、S2において画像処理部201が取得した画像情報に基づいて、対象物体41および周辺物体42の表面位置を計測する。撮像装置31から得られる画像情報は、3次元点群の情報であるため、表面位置計測部202は、取得した画像情報に基づいて、対象物体41および周辺物体42の表面の凹凸を認識することができる。なお、予め外部メモリ24等に格納された部品データベース(部品DB)を参照して、対象物体41および周辺物体42の表面位置を決定してもよい。部品DBは、認識の対象である対象物体41の部品種および形状の情報を保持している。部品DBに格納される対象物体41の形状の情報は、例えばCADデータやCGデータ(ポリゴンデータ)などの3次元モデルデータである。なお、部品DBに格納される対象物体の形状の情報は、対象物体41や周辺物体42を多方向から観察した2次元画像の集合から構成されていてもよい。
First, in S1, the CPU 21 performs a system initialization process. That is, the CPU 21 loads a program stored in the ROM 22 or the external memory 24, develops it on the RAM 23, and makes it executable. In addition, the parameters of each device connected to the information processing apparatus 20 are read and returned to the initial position to make it usable.
Next, in S2, the image processing unit 201 acquires image information of the target object 41 and the peripheral object 42 output by the imaging device 31, and the process proceeds to S3. In S3, the surface position measurement unit 202 measures the surface positions of the target object 41 and the peripheral object 42 based on the image information acquired by the image processing unit 201 in S2. Since the image information obtained from the imaging device 31 is information of a three-dimensional point group, the surface position measurement unit 202 recognizes the surface irregularities of the target object 41 and the peripheral object 42 based on the acquired image information. Can do. Note that the surface positions of the target object 41 and the peripheral object 42 may be determined with reference to a parts database (parts DB) stored in advance in the external memory 24 or the like. The component DB holds information on the component type and shape of the target object 41 that is the recognition target. The shape information of the target object 41 stored in the component DB is three-dimensional model data such as CAD data or CG data (polygon data). Note that the information on the shape of the target object stored in the component DB may be configured from a set of two-dimensional images obtained by observing the target object 41 and the peripheral object 42 from multiple directions.

S4では、地図情報作成部203は、S3において表面位置計測部202が計測した表面位置情報に基づいて地図情報を作成する。以下、地図情報の作成方法について具体的に説明する。地図情報を作成するためには、複数の異なるセンサから得られた情報を一つの空間的な地図情報に落としこむ必要がある。しかしながら、撮像装置31の撮像装置座標系、力覚センサ33の力覚センサ座標系、ロボット10のロボット座標系は全て異なる。そのため、これらの座標系を統一する必要がある。   In S4, the map information creation unit 203 creates map information based on the surface position information measured by the surface position measurement unit 202 in S3. Hereinafter, a method for creating map information will be specifically described. In order to create map information, it is necessary to drop information obtained from a plurality of different sensors into one piece of spatial map information. However, the imaging device coordinate system of the imaging device 31, the force sensor coordinate system of the force sensor 33, and the robot coordinate system of the robot 10 are all different. Therefore, it is necessary to unify these coordinate systems.

まず、作業空間内で基準となる座標系として、ワールド座標系Σwを設定する。そして、ワールド座標系Σwからロボット座標系Σrまでの変位を(RX,RY,RZ)とする。また、ロボット10の姿勢を表す3×3の回転行列をRMとする。
ロボット座標系Σrからロボット10の先端座標系Σfまでの変位は(FX,FY,FZ)とする。また、ロボット10の先端の姿勢を表す3×3の回転行列はFMとする。さらに、先端座標系Σfからロボット10のエンドエフェクタ11先端の座標系Σeまでの変位は(EX,EY,EZ)とする。また、エンドエフェクタ11先端の姿勢を表す3×3の回転行列はEMとする。なお、エンドエフェクタ11先端とは、対象物体41あるいは周辺物体42に接触する部分である。
First, a world coordinate system Σw is set as a reference coordinate system in the work space. The displacement from the world coordinate system Σw to the robot coordinate system Σr is defined as (RX, RY, RZ). Further, a 3 × 3 rotation matrix representing the posture of the robot 10 is defined as RM.
The displacement from the robot coordinate system Σr to the tip coordinate system Σf of the robot 10 is (FX, FY, FZ). Further, the 3 × 3 rotation matrix representing the posture of the tip of the robot 10 is FM. Further, the displacement from the tip coordinate system Σf to the coordinate system Σe at the tip of the end effector 11 of the robot 10 is (EX, EY, EZ). Further, the 3 × 3 rotation matrix representing the attitude of the tip of the end effector 11 is EM. The tip of the end effector 11 is a portion that contacts the target object 41 or the peripheral object 42.

ロボット10の先端座標系Σfから力覚センサ座標系Σtまでの変位は(TX,TY,TZ)とする。また、力覚センサ33の姿勢を表す3×3の回転行列はTMとする。さらに、ロボット座標系Σrから撮像装置座標系Σcまでの変位は(CX,CY,CZ)とする。また、撮像装置31の姿勢を表す3×3の回転行列はCMとする。さらに、撮像装置座標系Σcから対象物体座標系Σvまでの変位は(VX,VY,VZ)とする。また、対象物体41の姿勢を表す3×3の回転行列はVMとする。ここで、ワールド座標系Σwから見た対象物体41の変位を(WX,WY,WZ)、姿勢を表す3×3の回転行列をWMとする。
ロボット10が対象物体41に接触しているとき、ロボット10の先端に取り付けられたエンドエフェクタ11先端の位置は、撮像装置31により撮影された対象物体41の位置と一致する。したがって、以下の(1)式および(2)式が成り立つ。
The displacement from the tip coordinate system Σf of the robot 10 to the force sensor coordinate system Σt is (TX, TY, TZ). A 3 × 3 rotation matrix representing the posture of the force sensor 33 is TM. Further, the displacement from the robot coordinate system Σr to the imaging device coordinate system Σc is (CX, CY, CZ). A 3 × 3 rotation matrix representing the attitude of the imaging device 31 is CM. Further, the displacement from the imaging device coordinate system Σc to the target object coordinate system Σv is (VX, VY, VZ). A 3 × 3 rotation matrix representing the posture of the target object 41 is VM. Here, the displacement of the target object 41 viewed from the world coordinate system Σw is (WX, WY, WZ), and the 3 × 3 rotation matrix representing the attitude is WM.
When the robot 10 is in contact with the target object 41, the position of the tip of the end effector 11 attached to the tip of the robot 10 matches the position of the target object 41 photographed by the imaging device 31. Therefore, the following formulas (1) and (2) hold.

Figure 2017136677
なお、ワールド座標系Σwから見た、接触動作時にロボット10にかかる力を4×4の行列WTとおくと、行列WTは以下の式で求まる。この(3)式を用いて、力の方向をワールド座標系Σwで考慮することができる。
Figure 2017136677
If the force applied to the robot 10 during the contact operation as seen from the world coordinate system Σw is set as a 4 × 4 matrix WT, the matrix WT is obtained by the following equation. Using this equation (3), the direction of force can be considered in the world coordinate system Σw.

Figure 2017136677
Figure 2017136677

地図情報作成部203は、以上の定義の下で、地図情報を作成する。つまり、地図情報作成部203は、上記(1)〜(3)式を用いて、異なる複数のセンサの座標系を統一し、座標系が統一されたら、各センサから得られた情報を利用して地図情報を作成していく。
S4では、地図情報作成部203は、まず、ワールド座標系Σwの作業空間に対してボクセルを配置する。ここで、ボクセルの存在する領域は、対象物体41あるいは周辺物体42が存在する可能性のある領域とする。また、ボクセルの大きさは、対象物体41の把持動作に必要な精度に応じて適宜設定される。
次に、地図情報作成部203は、表面位置情報を用いて、対象物体41と周辺物体42との表面位置よりも外側に存在するボクセルを全て削る処理を行う。表面位置情報は3次元点群データであり、この表面位置情報は、撮像装置座標系Σcの情報として求まるので、対象物体41の表面位置は、上記(2)式を用いてワールド座標系Σwに変換することができる。ワールド座標系Σwに配置されたボクセル内に点群が存在する場合、そのボクセルは削られる対象となる。ボクセルが削られた領域は物体が存在しない部分として処理される。以上により、対象物体41と周辺物体42とがおおよそ存在する空間を示す地図情報が作成される。
The map information creation unit 203 creates map information based on the above definition. That is, the map information creation unit 203 uses the above equations (1) to (3) to unify the coordinate systems of different sensors, and when the coordinate systems are unified, use information obtained from each sensor. To create map information.
In S4, the map information creation unit 203 first arranges voxels in the work space of the world coordinate system Σw. Here, the region where the voxel exists is a region where the target object 41 or the peripheral object 42 may exist. Further, the size of the voxel is appropriately set according to the accuracy required for the gripping operation of the target object 41.
Next, the map information creation unit 203 performs a process of cutting all voxels existing outside the surface positions of the target object 41 and the peripheral object 42 using the surface position information. The surface position information is three-dimensional point cloud data, and this surface position information is obtained as information of the imaging device coordinate system Σc. Therefore, the surface position of the target object 41 is expressed in the world coordinate system Σw using the above equation (2). Can be converted. When a point group exists in a voxel arranged in the world coordinate system Σw, the voxel is a target to be cut. The area where the voxel is cut is processed as a part where no object exists. As described above, map information indicating a space where the target object 41 and the peripheral object 42 are approximately present is created.

S5では、計測位置決定部204は、S4において作成された地図情報に基づいて、対象物体41の計測位置を決定する。具体的には、計測位置決定部204は、地図情報を参照し、対象物体41および周辺物体42の表面の凹凸に関する情報をもとに、表面が凸形状である部分を選択する。そして、選択した部分は対象物体41の存在確率が高い部分であるとして、対象物体41を詳細に計測するための計測位置として決定する。なお、部品DBを利用して対象物体41の位置を推測できている場合、推測した位置をもとに計測位置を決定してもよい。このように、部品DBにより、対象物体41のおおまかな位置および姿勢を推測できる場合には、推測した位置および姿勢が正しいか否かを直接触って確認するための計測位置を決定する。   In S5, the measurement position determination unit 204 determines the measurement position of the target object 41 based on the map information created in S4. Specifically, the measurement position determination unit 204 refers to the map information, and selects a portion having a convex surface based on information on the surface irregularities of the target object 41 and the peripheral object 42. Then, the selected part is determined as a measurement position for measuring the target object 41 in detail, assuming that the target object 41 has a high existence probability. When the position of the target object 41 can be estimated using the component DB, the measurement position may be determined based on the estimated position. As described above, when the rough position and orientation of the target object 41 can be estimated from the component DB, the measurement position for directly checking whether the estimated position and orientation are correct is determined.

S6では、行動計画部205は、S5において計測位置決定部204が決定した計測位置に基づいて、計測位置による計測を実現するためのロボット10の行動計画を決定する。次にS7では、行動計画部205は、S6において決定した行動計画に基づいて、ロボット10へ動作指示情報を出力する。これにより、ロボット10は、エンドエフェクタ11を計測位置まで移動し、計測位置において対象物体41に対する接触動作を行う。このときのロボット10の動作は、単にエンドエフェクタ11が表面位置計測部202で計測した表面位置まで移動するだけではなく、表面位置よりさらに深く移動しながら力覚情報の取得も行う動作である。図5(a)に示すように、対象物体41がビニール袋や緩衝材といった周辺物体42に包まれている場合、エンドエフェクタ11は、図5(b)に示すように周辺物体42を押しつぶしながら移動する。   In S6, the action plan unit 205 determines an action plan of the robot 10 for realizing measurement based on the measurement position based on the measurement position determined by the measurement position determination unit 204 in S5. Next, in S7, the action plan unit 205 outputs the operation instruction information to the robot 10 based on the action plan determined in S6. Thereby, the robot 10 moves the end effector 11 to the measurement position, and performs a contact operation on the target object 41 at the measurement position. The operation of the robot 10 at this time is not only the movement of the end effector 11 to the surface position measured by the surface position measurement unit 202 but also the acquisition of force information while moving deeper than the surface position. As shown in FIG. 5A, when the target object 41 is wrapped in a peripheral object 42 such as a plastic bag or a cushioning material, the end effector 11 crushes the peripheral object 42 as shown in FIG. Moving.

S8では、力覚情報取得部206は、力覚センサ33が出力する力覚情報を取得する。また、位置情報取得部208は、力覚情報取得部206による力覚情報の取得に同期して、位置検出センサ34が出力する位置検出情報を取得する。S9では、力計測部207は、S8において力覚情報取得部206が取得した力覚情報に基づいて、ロボット10にかかる力を示す力情報を計測する。また、位置計測部209は、S8において位置情報取得部208が取得した位置検出情報に基づいて、ロボット10の位置を示す位置情報を計測する。   In S <b> 8, the force information acquisition unit 206 acquires force information output from the force sensor 33. The position information acquisition unit 208 acquires the position detection information output from the position detection sensor 34 in synchronization with the acquisition of the force information by the force information acquisition unit 206. In S9, the force measurement unit 207 measures force information indicating the force applied to the robot 10 based on the force sense information acquired by the force sense information acquisition unit 206 in S8. Further, the position measurement unit 209 measures position information indicating the position of the robot 10 based on the position detection information acquired by the position information acquisition unit 208 in S8.

力情報および位置情報は、ロボット10が対象物体41に対する接触動作を行っている間、繰り返し計測してもよい。その場合、図4に示すフローチャートでは、S7〜S9を一方向の流れとして書いているが、S7からS8、S8からS9、S9からS7と、S7〜S9の処理を高速に繰り返す。つまり、ロボット10は移動しながら力覚情報・位置情報を取得し、力計測・位置計測を行う。さらに、S7〜S9に限らず、S10の地図情報の更新も行ってもよい。その場合は、S9からS7に戻るのではなく、S7からS8、S8からS9、S9からS10、S10からS7という処理の流れを高速に繰り返す。ここで、上記接触動作は、ロボット10にかかる力の大きさが、予め設定された上限値を超えない範囲で実施するものとする。ロボット10にかかる力の大きさが上限値を超えたか否かは、S9において計測される力情報に基づいて判定する。接触動作を行う中で、ロボット10にかかる力は、対象物体41への接触力に応じて増加する。そこで、上記の力の上限値は、接触動作により対象物体41に破損等の不具合が生じない程度の力に設定する。例えば、対象物体41がビニール袋に包まれたトナーカートリッジである場合、ビニール袋を潰しトナーカートリッジを壊さない程度の力を上限値として設定する。   The force information and the position information may be repeatedly measured while the robot 10 performs a contact operation on the target object 41. In this case, in the flowchart shown in FIG. 4, S7 to S9 are written as a one-way flow, but the processes of S7 to S8, S8 to S9, S9 to S7, and S7 to S9 are repeated at high speed. That is, the robot 10 acquires force sense information / position information while moving, and performs force measurement / position measurement. Furthermore, not only S7-S9 but the map information of S10 may also be updated. In that case, instead of returning from S9 to S7, the process flow from S7 to S8, S8 to S9, S9 to S10, and S10 to S7 is repeated at high speed. Here, the contact operation is performed in a range in which the magnitude of the force applied to the robot 10 does not exceed a preset upper limit value. Whether or not the magnitude of the force applied to the robot 10 exceeds the upper limit value is determined based on the force information measured in S9. During the contact operation, the force applied to the robot 10 increases according to the contact force to the target object 41. Therefore, the upper limit value of the force is set to a force that does not cause a problem such as damage to the target object 41 by the contact operation. For example, when the target object 41 is a toner cartridge wrapped in a plastic bag, the force that does not crush the plastic bag and break the toner cartridge is set as the upper limit value.

ロボット10がビニール袋を潰してトナーカートリッジの表面に当接し、ロボット10にかかる力が上限値に達すると、情報処理装置20はロボット10の接触動作を停止する。接触動作を停止した時点でのロボット10の位置は、対象物体41の実際の表面位置として認識することができる。
S10では、地図情報作成部203は、S9において計測した力情報および位置情報に基づいて、S4において作成された地図情報を更新し、新たな地図情報を作成する。S10では、地図情報作成部203は、S9において取得した位置情報を、計測位置において実際にロボット10が動作した結果として利用する。そして、S4において作成した地図情報に対して、ロボット10自身が動いた空間に該当するボクセルを削る処理を行う。
When the robot 10 crushes the plastic bag and contacts the surface of the toner cartridge, and the force applied to the robot 10 reaches the upper limit value, the information processing apparatus 20 stops the contact operation of the robot 10. The position of the robot 10 at the time when the contact operation is stopped can be recognized as the actual surface position of the target object 41.
In S10, the map information creation unit 203 updates the map information created in S4 based on the force information and position information measured in S9, and creates new map information. In S10, the map information creation unit 203 uses the position information acquired in S9 as a result of the actual operation of the robot 10 at the measurement position. Then, the map information created in S4 is subjected to a process of cutting a voxel corresponding to the space in which the robot 10 has moved.

その際、地図情報作成部203は、予め保持されたロボット10の3次元モデル情報を用い、関節角度データから順運動学をもとに各時刻においてロボット10が専有している位置(専有位置)を計算する。エンドエフェクタ11部分についても同様に、予め保持したエンドエフェクト11の3次元モデル情報を用い、ロボット10先端の位置および姿勢から専有位置を計算する。このように、上記専有位置は、ロボット10に設置した位置検出センサ34から得られる位置検出情報であるロボット10の各関節角度のデータをもとに計算することができる。その際、前述の座標系の統一処理と同様に、リンク間長さから変位の並進ベクトルを求め、関節角度から3×3の回転行列を求め、順運動学を用いる。これにより、ロボット10の3次元での位置および姿勢、つまりロボット座標系Σrからロボット10の先端座標系Σfまでの変位(FX,FY,FZ)と回転行列FMとを求めることができる。   At that time, the map information creation unit 203 uses the 3D model information of the robot 10 held in advance, and the position that the robot 10 occupies at each time based on the forward kinematics from the joint angle data (dedicated position). Calculate Similarly, for the end effector 11 part, the exclusive position is calculated from the position and posture of the tip of the robot 10 using the previously stored 3D model information of the end effect 11. As described above, the exclusive position can be calculated based on the data of each joint angle of the robot 10 which is position detection information obtained from the position detection sensor 34 installed in the robot 10. At that time, as in the coordinate system unification process described above, a translational vector of displacement is obtained from the length between links, a 3 × 3 rotation matrix is obtained from the joint angle, and forward kinematics is used. As a result, the three-dimensional position and orientation of the robot 10, that is, the displacement (FX, FY, FZ) from the robot coordinate system Σr to the tip coordinate system Σf of the robot 10 and the rotation matrix FM can be obtained.

上記により求まる専有位置は、前述の座標系の統一によってワールド座標系Σwにおける位置情報として計算される。そのため、計算された専有位置に該当するボクセルを削ることができる。ロボット10が対象物体41あるいは周辺物体42に接触している場合でも、力計測部207で計測している力が上限値よりも小さい場合は、ロボット10は動き続ける。したがって、この場合、地図情報作成部203は、ロボット10が対象物体41にはまだ完全に接触していないと判断し、ロボット10が動き続けると同時に空間的な掃引を行い、ボクセルを削っていく。対象物体41がビニール袋のようなもので包まれている場合、ビニール袋のみが存在する空間では、エンドエフェクタ11がビニール袋を押し潰すことでロボット10は動作を継続する。そのため、ビニール袋のみが存在する空間に対応するボクセル内の領域は削られることになる。   The exclusive position obtained as described above is calculated as position information in the world coordinate system Σw by unifying the coordinate system described above. Therefore, the voxel corresponding to the calculated exclusive position can be cut. Even when the robot 10 is in contact with the target object 41 or the surrounding object 42, the robot 10 continues to move when the force measured by the force measuring unit 207 is smaller than the upper limit value. Therefore, in this case, the map information creation unit 203 determines that the robot 10 is not yet completely in contact with the target object 41, and at the same time the robot 10 continues to move, performs a spatial sweep and scrapes the voxels. . When the target object 41 is wrapped with something like a plastic bag, the robot 10 continues to operate when the end effector 11 crushes the plastic bag in a space where only the plastic bag exists. Therefore, the area in the voxel corresponding to the space in which only the plastic bag exists is scraped.

ロボット10が対象物体41に接触し、ロボット10にかかる力が上限値に達すると、その時点でロボット10は動作を止める。このとき、地図情報作成部203は、ボクセルを削る処理を止め、接触箇所までに掃引した空間は物体がなく、接触した位置は物体があると判断して、地図情報の作成を終了する。
なお、地図情報の作成にあたっては、ボクセルを配置しない手法を用いてもよい。例えば、3次元点群データである表面位置情報を面形式データに変換し、ポリゴンを用いて対象物体41や周辺物体42の表面位置を表現してもよい。この場合、ポリゴンにより作成された表面位置情報を初期値として、ロボット10が掃引した空間に対する3次元の位置情報をもとに表面生成を行い、地図情報を作成してもよい。また2次元で地図情報を作成する場合には、ボクセルではなくピクセルを用いて、2次元平面上において上記と同様の手法を用いて地図情報を作成してもよい。
When the robot 10 comes into contact with the target object 41 and the force applied to the robot 10 reaches the upper limit value, the robot 10 stops its operation at that time. At this time, the map information creation unit 203 stops the process of scraping the voxels, determines that there is no object in the space swept up to the contact location, and that there is an object at the contact position, and ends the creation of map information.
In creating map information, a method that does not arrange voxels may be used. For example, surface position information that is three-dimensional point cloud data may be converted into surface format data, and the surface positions of the target object 41 and the peripheral object 42 may be expressed using polygons. In this case, map information may be created by generating the surface based on the three-dimensional position information with respect to the space swept by the robot 10 using the surface position information created by the polygon as an initial value. In addition, when creating map information in two dimensions, map information may be created using a technique similar to the above on a two-dimensional plane using pixels instead of voxels.

S11では、把持位置決定部210は、S10における地図情報の作成結果をもとに、ロボット10のエンドエフェクタ11によって対象物体41を把持可能であるか否かを判定する。そして、把持が可能である場合には計測を終了すると判断し、把持が不可能である場合には計測を継続すると判断する。
具体的には、地図情報をもとに把持対象となる対象物体41の位置および姿勢を推定し、推定した対象物体41の位置および姿勢と、ロボット10のエンドエフェクタ11の形状とに基づいて把持可否を判断する。エンドエフェクタ11が対象物体41の側面を上方から挟んで把持する場合、エンドエフェクタ11が対象物体41の側面に入り込む必要がある。その場合、まず、地図情報をもとに、対象物体41の上にロボット10が移動できる空間があるか否かを判断する。空間の有無は、地図情報において、ボクセルが取り除かれているか否かで判断する。
In S11, the gripping position determination unit 210 determines whether or not the target object 41 can be gripped by the end effector 11 of the robot 10 based on the map information creation result in S10. If gripping is possible, it is determined that the measurement is to be terminated, and if gripping is impossible, it is determined that the measurement is to be continued.
Specifically, the position and orientation of the target object 41 to be grasped are estimated based on the map information, and the grasping is performed based on the estimated position and orientation of the target object 41 and the shape of the end effector 11 of the robot 10. Judgment is made. When the end effector 11 grips the side surface of the target object 41 from above, the end effector 11 needs to enter the side surface of the target object 41. In this case, first, based on the map information, it is determined whether or not there is a space on the target object 41 where the robot 10 can move. The presence / absence of space is determined based on whether or not voxels are removed from the map information.

空間がある場合、ロボット10が対象物体41の上まで移動できると判断する。すると、次に、エンドエフェクタ11が対象物体41の側面に入る空間があるか否かを、接触を伴う動作によって判断する。そして、対象物体41の側面にエンドエフェクタ11が入れる空間がある場合には、エンドエフェクタ11が対象物体41を把持可能であるため、計測を終了すると判断してS12に移行する。一方、エンドエフェクタ11が対象物体41を把持できないと判断した場合には、S5に戻って計測を続行する。このように、把持位置決定部210は、周囲にロボット10の把持部であるエンドエフェクタ11を挿入可能な空間を有する位置を、ロボット10が対象物体41を把持可能な位置として決定する。   If there is a space, it is determined that the robot 10 can move over the target object 41. Then, whether or not there is a space for the end effector 11 to enter the side surface of the target object 41 is determined by an operation involving contact. Then, when there is a space for the end effector 11 on the side surface of the target object 41, the end effector 11 can grip the target object 41, so that the measurement is finished and the process proceeds to S12. On the other hand, when it is determined that the end effector 11 cannot hold the target object 41, the process returns to S5 and measurement is continued. As described above, the gripping position determination unit 210 determines a position having a space in which the end effector 11 as a gripping part of the robot 10 can be inserted as a position where the robot 10 can grip the target object 41.

また、S11で把持可能でないと判断した場合、S5の計測位置決定の処理を再び行うが、このとき、ここまでの処理の結果を利用してもよい。例えば、S11にて把持可能かの判断をするにあたり、ロボットの動作が行われているが、その計測位置決定を行う際、次の計測位置は別の計測位置から求めるといった方法である。具体的には、今回の計測位置決定にあたり、候補となる位置が複数あるとする。このとき、S5の説明で述べたように、表面の凹凸状態などを利用して、対象物体41の存在確率が高い部分を計測位置として決定している。この存在確率を評価関数として利用する場合、今回の計測ではこの評価関数が最大値を示した位置を計測位置として決定しているが、次回の計測では評価関数が最大値の次に大きい値を示した位置を計測位置として決定する。これらの結果は作成した地図情報に含んでもよい。このように、単に同じ処理を繰り返すだけでなく、今回の処理の結果を地図情報に随時更新することで、次回の処理において利用してもよい。こうすることで、ロボット10が把持可能でない位置へ何度も移動することがなくなる。また、ロボット10は把持可能性の高い順に移動することができる。そのため、一回目の処理で対象物体41の把持に失敗しても、二回目以降の処理で把持できる確率が上がる。   If it is determined in S11 that gripping is not possible, the process of determining the measurement position in S5 is performed again. At this time, the result of the process so far may be used. For example, in determining whether or not the gripping is possible in S11, the robot is operating. When determining the measurement position, the next measurement position is obtained from another measurement position. Specifically, it is assumed that there are a plurality of candidate positions in determining the current measurement position. At this time, as described in the description of S5, a portion where the existence probability of the target object 41 is high is determined as a measurement position using an uneven state of the surface. When this existence probability is used as an evaluation function, the position where this evaluation function shows the maximum value is determined as the measurement position in this measurement, but in the next measurement, the evaluation function is set to the next largest value after the maximum value. The indicated position is determined as the measurement position. These results may be included in the created map information. In this way, not only simply repeating the same process but also updating the result of the current process in the map information as needed to use it in the next process. By doing so, the robot 10 does not move many times to a position where it cannot be gripped. Further, the robot 10 can move in the order of the high possibility of gripping. Therefore, even if the target object 41 fails to be gripped in the first process, the probability that the target object 41 can be gripped in the second and subsequent processes increases.

なお、S11において、図4では「把持可能か?」と記載しているが、これは単に把持ができるかできないかだけでなく、把持動作を実行できる位置までロボット10が移動できるかどうかという判断も含む。ロボット10が移動する際、想定外の障害などで、把持動作を実行する予定の位置まで移動できない場合が生じる可能性もある。その場合は、把持可能ではないと判断し、S5の処理を行う。   In S11, FIG. 4 describes “Can be gripped?”, But this is not only a determination of whether or not the robot can be gripped, but also a determination of whether or not the robot 10 can move to a position where a gripping operation can be performed. Including. When the robot 10 moves, there may be a case where the robot 10 cannot move to a position where a gripping operation is scheduled to be performed due to an unexpected failure or the like. In that case, it is determined that the grip is not possible, and the process of S5 is performed.

S12では、把持位置決定部210は、S10において作成された地図情報に基づいて、対象物体41の把持位置を決定する。把持位置決定部210は、S11において把持可能であると判断された位置の中から対象物体41の把持位置を決定する。
S13では、行動計画部205は、S12において決定された把持位置による対象物体41の把持動作を実現するためのロボット10の行動計画を決定する。行動計画を決定する際には、行動計画部205は、把持位置をもとに、予め外部メモリ24等に格納された動作データベース(動作DB)を参照する。動作DBは、部品種および作業手順の情報を保持している。なお、ロボットの行動計画は、一般的な経路探索アルゴリズムを利用して決定することができる。経路探索アルゴリズムとしては、例えば、RRT(Rapidly-exploring Random Tree)やPRM(Probabilistic RoadMap)などのサンプリングベース探索法を用いることができる。その際、地図情報を利用して、どこに対象物体41があるか、どこに障害物があるか、といった3次元の位置情報を入力する。このような手法を用いることで、行動計画部205は、障害物を回避しながら対象物体41を把持できるロボット10の行動計画を決定する。ただし、同様の結果が得られるのであれば、別の手法を用いてもよい。
In S12, the gripping position determination unit 210 determines the gripping position of the target object 41 based on the map information created in S10. The grip position determination unit 210 determines the grip position of the target object 41 from the positions determined to be grippable in S11.
In S13, the action planning unit 205 determines an action plan of the robot 10 for realizing the gripping operation of the target object 41 by the gripping position determined in S12. When determining an action plan, the action plan unit 205 refers to an action database (action DB) stored in advance in the external memory 24 or the like based on the gripping position. The operation DB holds information on component types and work procedures. The robot action plan can be determined using a general route search algorithm. As the route search algorithm, for example, a sampling-based search method such as RRT (Rapidly-exploring Random Tree) or PRM (Probabilistic RoadMap) can be used. At this time, using the map information, three-dimensional position information such as where the target object 41 is and where there is an obstacle is input. By using such a method, the action planning unit 205 determines an action plan of the robot 10 that can hold the target object 41 while avoiding an obstacle. However, another method may be used as long as a similar result can be obtained.

次にS14では、行動計画部205は、S13において決定した行動計画に基づいて、ロボット10へ動作指示情報を出力する。これにより、ロボット10は、エンドエフェクタ11を把持位置まで移動し、把持位置において対象物体41に対する把持動作を行う。ロボット10によって把持された対象物体41は、動作DBに蓄積された作業手順に則って所定の場所へ搬送される。
S15では、CPU21は、画像取得部201が取得した画像情報をもとに、認識対象となる次の対象物体41が存在するか否かを判定する。そして、CPU21は、対象物体41が存在しない場合には認識処理を終了すると判断して図4に示す処理を終了し、対象物体41が存在する場合には、認識処理を継続すると判断してS2に戻る。
Next, in S <b> 14, the action plan unit 205 outputs operation instruction information to the robot 10 based on the action plan determined in S <b> 13. As a result, the robot 10 moves the end effector 11 to the gripping position and performs a gripping operation on the target object 41 at the gripping position. The target object 41 held by the robot 10 is transported to a predetermined location in accordance with the work procedure accumulated in the operation DB.
In S <b> 15, the CPU 21 determines whether there is a next target object 41 to be recognized based on the image information acquired by the image acquisition unit 201. Then, the CPU 21 determines that the recognition process is terminated when the target object 41 does not exist, and terminates the process illustrated in FIG. 4. If the target object 41 exists, the CPU 21 determines that the recognition process is to be continued and performs S2. Return to.

このように、情報処理装置20は、撮像装置31から得られる画像情報をもとに計測した表面位置情報に基づいて、より詳しく対象物体41の位置および姿勢を計測するための計測位置を決定し、決定した計測位置へロボット10を移動させる。そして、計測位置においてロボット10を対象物体41に実際に接触させ、その接触動作中に力覚センサ33および位置検出センサ34を用いて計測された力情報および位置検出情報に基づいて、対象物体41の詳細位置を計測する。対象物体41の位置および姿勢は、地図情報を作成することで認識する。これにより、撮像装置31のみでは位置および姿勢を正確に認識できないような、ビニール袋や緩衝材に包まれた対象物体41であっても、適切に把持動作のための認識が可能となる。したがって、対象物体41の把持できるケースが増え、作業の効率化が図れる。   As described above, the information processing apparatus 20 determines a measurement position for measuring the position and orientation of the target object 41 in more detail based on the surface position information measured based on the image information obtained from the imaging apparatus 31. Then, the robot 10 is moved to the determined measurement position. Then, the robot 10 is actually brought into contact with the target object 41 at the measurement position, and the target object 41 is based on the force information and the position detection information measured using the force sensor 33 and the position detection sensor 34 during the contact operation. Measure the detailed position of. The position and orientation of the target object 41 are recognized by creating map information. As a result, even for the target object 41 wrapped in a plastic bag or cushioning material, the position and orientation of which cannot be accurately recognized only by the imaging device 31 can be appropriately recognized for the gripping operation. Therefore, the number of cases where the target object 41 can be gripped increases, and work efficiency can be improved.

なお、本実施形態においては、対象物体41に対する接触動作は1回としているが、一度の接触動作によって対象物体41を認識できない場合には、複数回触って計測を繰り返して地図情報を作成してもよい。これにより、認識の精度を向上させることができる。
以上のように、本実施形態では、表面位置計測部202が、物体(対象物体41および周辺物体42)の表面位置情報を計測(取得)し、計測位置決定部204が、表面位置情報に基づいて対象物体41を実測するための計測位置を決定する。また、力計測部207および位置計測部209は、計測位置において対象物体41に接触したときの接触位置情報を計測する。そして、地図情報作成部203は、表面位置情報と接触位置情報とに基づいて、対象物体41の位置および姿勢を認識する。
In the present embodiment, the contact operation with respect to the target object 41 is performed once. However, when the target object 41 cannot be recognized by a single contact operation, the map information is created by repeatedly touching and measuring. Also good. Thereby, the recognition accuracy can be improved.
As described above, in the present embodiment, the surface position measurement unit 202 measures (acquires) the surface position information of the objects (the target object 41 and the peripheral object 42), and the measurement position determination unit 204 uses the surface position information. The measurement position for actually measuring the target object 41 is determined. The force measuring unit 207 and the position measuring unit 209 measure contact position information when the target object 41 is touched at the measurement position. The map information creation unit 203 recognizes the position and orientation of the target object 41 based on the surface position information and the contact position information.

このように、対象物体41に実際に触って接触位置情報を計測するので、対象物体41の詳細位置を確認することができる。これにより、ビニール袋や緩衝材に包まれた中身である対象物体41の位置および姿勢を適切に認識することができる。つまり、表面位置情報からだけでは、対象物体41の実際の位置および姿勢が認識できない場合であっても、対象物体41の実際の位置および姿勢の認識が可能となる。したがって、ロボット10により対象物体41を把持できるケースが増え、作業の効率化が図れる。   Thus, since the contact position information is measured by actually touching the target object 41, the detailed position of the target object 41 can be confirmed. Thereby, the position and attitude | position of the target object 41 which is the content wrapped in the plastic bag or the buffer material can be recognized appropriately. That is, even if the actual position and orientation of the target object 41 cannot be recognized only from the surface position information, the actual position and orientation of the target object 41 can be recognized. Therefore, the number of cases in which the target object 41 can be gripped by the robot 10 is increased, and work efficiency can be improved.

また、地図情報作成部203は、表面位置情報と接触位置情報とに基づいて、対象物体41の空間的な位置情報を示す地図情報を作成し、作成した地図情報に基づいて、対象物体41の位置および姿勢を認識する。このように、対象物体41に実際に触って確認した位置情報を考慮して地図情報を作成するので、適切に対象物体41の位置および姿勢を認識することができる。
さらに、地図情報作成部203は、地図情報の作成に際し、まず、表面位置情報に基づいて地図情報を作成し、次いで、計測位置において計測された接触位置情報に基づいて、表面位置情報に基づいて作成された地図情報を更新する。このように、撮像装置31による対象物体41の表面位置計測と、力覚センサ33および位置検出センサ34による位置計測の結果とを統合して地図情報を作成する。これにより、表面位置情報に基づいて作成したおおまかな地図情報において不足する情報を適切に補って最終的な地図情報を作成することができる。したがって、撮像装置31から取得される情報だけでは対象物体41の位置および姿勢が求まらない場合であっても、対象物体41の形状を適切に認識してロボット10による操作が可能になる。
Further, the map information creating unit 203 creates map information indicating the spatial position information of the target object 41 based on the surface position information and the contact position information, and based on the created map information, the map information of the target object 41 is created. Recognize position and posture. As described above, the map information is created in consideration of the position information actually confirmed by touching the target object 41, so that the position and orientation of the target object 41 can be recognized appropriately.
Further, when creating the map information, the map information creating unit 203 first creates map information based on the surface position information, and then based on the surface position information based on the contact position information measured at the measurement position. Update the created map information. As described above, the map information is created by integrating the surface position measurement of the target object 41 by the imaging device 31 and the position measurement results by the force sensor 33 and the position detection sensor 34. Thereby, final map information can be created by appropriately supplementing information that is insufficient in the rough map information created based on the surface position information. Therefore, even if the position and orientation of the target object 41 cannot be obtained only by information acquired from the imaging device 31, the robot 10 can be operated by appropriately recognizing the shape of the target object 41.

また、計測位置決定部204は、表面位置情報に基づいて、表面が凸形状である位置を検出し、検出した位置を計測位置として決定する。したがって、対象物体41および周辺物体42が混在する中から、対象物体41の存在確率が高い部分を選択して実測することができる。
さらに、表面位置計測部202は、対象物体41および周辺物体42を撮像した画像情報に基づいて表面位置情報を取得する。そのため、容易に表面位置情報を取得することができる。
Moreover, the measurement position determination part 204 detects the position where the surface is convex shape based on surface position information, and determines the detected position as a measurement position. Therefore, the target object 41 and the peripheral object 42 can be mixed, and a part having a high existence probability of the target object 41 can be selected and actually measured.
Further, the surface position measurement unit 202 acquires surface position information based on image information obtained by imaging the target object 41 and the peripheral object 42. Therefore, the surface position information can be easily acquired.

また、力計測部207は、対象物体41に接触したときの反力を計測(取得)し、位置計測部209は、対象物体41との接触点の位置を計測(取得)する。そして、位置計測部209は、力計測部207によって計測された反力が所定の上限値に達したときに接触点の位置を計測することで、接触位置情報を計測する。したがって、対象物体41がビニール袋のようなやわらかい部材で包まれている場合には、対象物体41を包んでいる部材を潰して対象物体41に直接接触し、接触位置情報を計測することができる。その際、ビニール袋や緩衝材を潰し中身である対象物体41を壊さない力を上記上限値として設定すれば、正確に対象物体41の位置および姿勢を認識することができる。   The force measurement unit 207 measures (acquires) a reaction force when it comes into contact with the target object 41, and the position measurement unit 209 measures (acquires) the position of the contact point with the target object 41. Then, the position measurement unit 209 measures the contact position information by measuring the position of the contact point when the reaction force measured by the force measurement unit 207 reaches a predetermined upper limit value. Therefore, when the target object 41 is wrapped with a soft member such as a plastic bag, the member surrounding the target object 41 can be crushed and directly contacted with the target object 41 to measure contact position information. . In that case, if the force which does not destroy the target object 41 which is a crushing plastic bag or a buffer material is set as the upper limit value, the position and posture of the target object 41 can be accurately recognized.

把持位置決定部210は、地図情報作成部203により作成された地図情報から認識される対象物体41の位置および姿勢に基づいて、ロボット10が対象物体41を把持可能な把持位置を決定する。このように、把持位置決定部210は、対象物体41に実際に触って確認した位置情報を考慮して作成された地図情報をもとに把持位置を決定する。したがって、高精度で把持可能な位置を決定することができ、ロボット10による把持動作を高確率で成功させることができる。また、このとき、把持位置決定部210は、周囲にロボット10の把持部を挿入可能な空間を有する位置を把持位置として決定するので、適切に把持位置を決定することができる。   The gripping position determination unit 210 determines a gripping position at which the robot 10 can grip the target object 41 based on the position and orientation of the target object 41 recognized from the map information created by the map information creation unit 203. As described above, the gripping position determination unit 210 determines the gripping position based on the map information created in consideration of the position information actually confirmed by touching the target object 41. Therefore, a position where gripping can be performed with high accuracy can be determined, and the gripping operation by the robot 10 can be performed with high probability. At this time, the gripping position determination unit 210 determines a position having a space in which the gripping part of the robot 10 can be inserted as a gripping position, so that the gripping position can be appropriately determined.

(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
第二の実施形態では、上述した第一の実施形態に対し、さらに把持動作時に把持力を計測する把持力計測センサを追加し、把持力計測センサによって計測された把持力情報を利用して、地図情報をより詳細に作成するよう構成したものである。具体的には、まず、上述した第一の実施形態と同様に、撮像装置31を用いて対象物体41および周辺物体42の表面位置情報を計測する。次に、上述した第一の実施形態と同様に、表面位置情報に基づいて対象物体41の計測位置を決定し、計測位置において対象物体41に対する接触動作を行う。そして、接触動作時に、力覚センサ33および位置検出センサ34を用いて、ロボット10が対象物体41に接触しているときの位置情報を計測し、計測した位置情報に基づいて対象物体41の把持位置を決定する。本実施形態では、把持位置における把持動作時に、把持力計測センサと位置検出センサ34とを用いて対象物体41の把持幅情報を計測する。そして、以上の表面位置情報、位置情報、および把持幅情報の計測結果を統合して地図情報を作成することにより、対象物体41を把持するための形状を認識する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the second embodiment, a gripping force measurement sensor that measures gripping force at the time of gripping operation is further added to the first embodiment described above, and using the gripping force information measured by the gripping force measurement sensor, It is configured to create map information in more detail. Specifically, first, as in the first embodiment described above, the surface position information of the target object 41 and the peripheral object 42 is measured using the imaging device 31. Next, as in the first embodiment described above, the measurement position of the target object 41 is determined based on the surface position information, and the contact operation with respect to the target object 41 is performed at the measurement position. Then, during the contact operation, the position information when the robot 10 is in contact with the target object 41 is measured using the force sensor 33 and the position detection sensor 34, and the target object 41 is gripped based on the measured position information. Determine the position. In the present embodiment, gripping width information of the target object 41 is measured using the gripping force measurement sensor and the position detection sensor 34 during the gripping operation at the gripping position. The shape for gripping the target object 41 is recognized by creating map information by integrating the measurement results of the surface position information, the position information, and the grip width information.

第一の実施形態では、ロボット10が対象物体41を把持する前までの情報から対象物体41を認識した。そのため、大きさの異なる複数種類の物体中に目標の対象物体41が混在する場合、必ずしも目標の対象物体41を把持できるとは限らない。そこで、第二の実施形態では、把持動作時に計測した把持幅を部品DBと照合し、目標の対象物体41の大きさ(幅)を参照することで、把持動作によりロボット10が把持した物体が目標の対象物体41であるか否かを判定する。また、把持動作時も含めて地図情報を作成するようにする。   In the first embodiment, the target object 41 is recognized from information before the robot 10 grips the target object 41. Therefore, when the target target object 41 is mixed among a plurality of types of objects having different sizes, the target target object 41 cannot always be gripped. Therefore, in the second embodiment, the gripping width measured during the gripping operation is collated with the component DB, and the size (width) of the target target object 41 is referred to, whereby the object gripped by the robot 10 by the gripping operation is determined. It is determined whether or not the target object 41 is a target. Also, map information is created including during the gripping operation.

図6は、第二の実施形態におけるロボットシステム100の構成例である。この図6において、上述した第一の実施形態と同様の構成を有する部分には、図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
本実施形態におけるロボットシステム100は、把持力計測センサ35がロボット10のエンドエフェクタ11先端に取り付けられている点で図1とは異なる。把持力計測センサ35は、歪みゲージや圧電素子により構成され、ロボット10が対象物体41を把持しているときの把持力を計測し、計測結果である把持力覚情報を情報処理装置20´へ出力する。把持力計測センサ35は、6軸力覚センサであってもよいし、3軸力覚センサであってもよい。また、把持力計測センサ35は、1次元の圧力センサであってもよいし、接触の有無を判別する接触センサであってもよい。
FIG. 6 is a configuration example of the robot system 100 according to the second embodiment. In FIG. 6, parts having the same configurations as those of the first embodiment described above are denoted by the same reference numerals as those in FIG. 1, and hereinafter, the parts having different configurations will be mainly described.
The robot system 100 according to the present embodiment is different from FIG. 1 in that a gripping force measurement sensor 35 is attached to the tip of the end effector 11 of the robot 10. The gripping force measurement sensor 35 is configured by a strain gauge or a piezoelectric element, measures the gripping force when the robot 10 is gripping the target object 41, and transmits gripping force information as a measurement result to the information processing apparatus 20 ′. Output. The gripping force measurement sensor 35 may be a 6-axis force sensor or a 3-axis force sensor. Further, the gripping force measurement sensor 35 may be a one-dimensional pressure sensor or a contact sensor that determines the presence or absence of contact.

図7は、本実施形態における情報処理装置20´の機能ブロック図である。図7に示す情報処理装置20´は、図2に示す情報処理装置20に対して、把持力覚情報取得部211と、把持力計測部212とが追加されている点が異なる。
把持力覚情報取得部211は、把持力計測センサ35から出力される把持力覚情報を取得し、取得した把持力覚情報を把持力計測部212へ出力する。把持力覚情報取得部211は、例えばメモリ(RAM)によって構成される。把持力計測部212は、把持力覚情報取得部211から入力した把持力覚情報に基づいて、ロボット10のエンドエフェクタ11によって物体を把持したときのロボット10にかかる力を計測する。把持力計測部212は、計測した把持力情報を位置情報計測部209に出力する。表面位置計測部202、地図情報作成部203、計測位置決定部204、力計測部207、位置計測部209および把持力計測部212によって、対象物体41の位置および姿勢を認識する処理を行う認識部220´を構成している。
FIG. 7 is a functional block diagram of the information processing apparatus 20 ′ in the present embodiment. The information processing apparatus 20 ′ illustrated in FIG. 7 is different from the information processing apparatus 20 illustrated in FIG. 2 in that a gripping force information acquisition unit 211 and a gripping force measurement unit 212 are added.
The grip force sense information acquisition unit 211 acquires grip force sense information output from the grip force measurement sensor 35 and outputs the acquired grip force sense information to the grip force measurement unit 212. The grasping force sense information acquisition unit 211 is configured by, for example, a memory (RAM). The gripping force measurement unit 212 measures the force applied to the robot 10 when the object is gripped by the end effector 11 of the robot 10 based on the gripping force sense information input from the gripping force sense information acquisition unit 211. The gripping force measuring unit 212 outputs the measured gripping force information to the position information measuring unit 209. A recognition unit that performs processing for recognizing the position and orientation of the target object 41 by the surface position measurement unit 202, the map information creation unit 203, the measurement position determination unit 204, the force measurement unit 207, the position measurement unit 209, and the gripping force measurement unit 212. 220 '.

図8は、情報処理装置20´が実行するロボット制御処理手順を示すフローチャートである。図8に示す処理は、図4のS14とS15との処理の間に、S21〜S26の処理が追加されていることを除いては、図4と同様の処理を行う。したがって、以下、処理の異なる部分を中心に説明する。
S21では、把持力覚情報取得部211は、把持力計測センサ35が出力する把持力覚情報を取得する。また、位置情報取得部208は、把持力覚情報取得部211による把持力覚情報の取得に同期して、位置検出センサ34が出力する位置検出情報を取得する。次にS22では、把持力計測部212は、S21において把持力覚情報取得部211が取得した把持力覚情報に基づいて、ロボット10が対象物体41を把持したときの把持力情報を計測する。また、位置計測部209は、S21において位置情報取得部208が取得した位置検出情報に基づいて、ロボット10が対象物体41を把持したときのエンドエフェクタ11先端の位置を計測する。つまり、位置計測部209は、ロボット10が把持した対象物体41の把持幅情報を計測する。
FIG. 8 is a flowchart showing a robot control processing procedure executed by the information processing apparatus 20 ′. The process shown in FIG. 8 is the same as that shown in FIG. 4 except that the processes of S21 to S26 are added between the processes of S14 and S15 of FIG. Therefore, the following description will focus on the different parts of the process.
In S <b> 21, the grip force sense information acquisition unit 211 acquires grip force sense information output by the grip force measurement sensor 35. Further, the position information acquisition unit 208 acquires the position detection information output by the position detection sensor 34 in synchronization with the acquisition of the grip force sense information by the grip force sense information acquisition unit 211. Next, in S22, the gripping force measurement unit 212 measures gripping force information when the robot 10 grips the target object 41 based on the gripping force sense information acquired by the gripping force sense information acquisition unit 211 in S21. Further, the position measurement unit 209 measures the position of the tip of the end effector 11 when the robot 10 grips the target object 41 based on the position detection information acquired by the position information acquisition unit 208 in S21. That is, the position measuring unit 209 measures the grip width information of the target object 41 gripped by the robot 10.

把持力情報および把持幅情報は、ロボット10の対象物体41に対する把持動作を行っている間、繰り返し計測される。上記把持動作は、対象物体41を把持したときにロボット10にかかる力の大きさが、予め設定された上限値を超えない範囲で実施するものとする。ロボット10にかかる力の大きさが上限値を超えたか否かは、S22において計測される把持力情報に基づいて判定する。把持動作を行う中で、ロボット10にかかる力は、対象物体41への把持力に応じて増加する。そこで、上記の力の上限値は、把持動作により対象物体41に破損等の不具合が生じない程度の力に設定する。例えば、対象物体41がビニール袋に包まれたトナーカートリッジである場合、ビニール袋を潰しトナーカートリッジを壊さない程度の力を上限値として設定する。   The gripping force information and the gripping width information are repeatedly measured while the robot 10 performs a gripping operation on the target object 41. The gripping operation is performed in a range where the magnitude of the force applied to the robot 10 when the target object 41 is gripped does not exceed a preset upper limit value. Whether or not the magnitude of the force applied to the robot 10 exceeds the upper limit value is determined based on the gripping force information measured in S22. During the gripping operation, the force applied to the robot 10 increases according to the gripping force on the target object 41. Therefore, the upper limit value of the force is set to a force that does not cause a problem such as damage to the target object 41 by the gripping operation. For example, when the target object 41 is a toner cartridge wrapped in a plastic bag, the force that does not crush the plastic bag and break the toner cartridge is set as the upper limit value.

ロボット10がビニール袋を潰してトナーカートリッジの表面に当接し、ロボット10にかかる力が上限値に達すると、情報処理装置20´はロボット10の把持動作を停止する。把持動作を停止した時点でのロボット10のエンドエフェクタ11による把持幅は、対象物体41の実際の大きさとして認識することができる。
S23では、地図情報作成部203は、S22において計測した把持力情報および把持幅情報に基づいて、S10において作成された地図情報を更新し、新たな地図情報を作成する。このS23では、地図情報作成部203は、S22において計測した把持幅を、対象物体41の大きさを示す情報として利用する。このように、地図情報作成部203は、対象物体41を実際に把持して得られた把持幅情報を加味して地図情報を作成し、対象物体41を認識する。
When the robot 10 crushes the plastic bag and comes into contact with the surface of the toner cartridge, and the force applied to the robot 10 reaches the upper limit value, the information processing apparatus 20 ′ stops the gripping operation of the robot 10. The grip width by the end effector 11 of the robot 10 when the gripping operation is stopped can be recognized as the actual size of the target object 41.
In S23, the map information creation unit 203 updates the map information created in S10 based on the gripping force information and gripping width information measured in S22, and creates new map information. In S23, the map information creation unit 203 uses the grip width measured in S22 as information indicating the size of the target object 41. As described above, the map information creation unit 203 creates map information in consideration of grip width information obtained by actually gripping the target object 41, and recognizes the target object 41.

地図情報作成部203は、まず各座標系の統一処理を行う。ロボット10、撮像装置31、力覚センサ33の座標系の統一については第一の実施形態において述べたとおりである。したがって、以下、把持力計測センサ35の座標系について述べる。本実施形態では、ロボット10の先端座標系Σfから把持力計測センサ座標系Σgまでの変位を(GX,GY,GZ)とする。また、把持力計測センサ35の姿勢を表す3×3の回転行列をGMとする。ここで、ワールド座標系Σwから見た、把持動作時にロボット10にかかる把持力を4×4の行列GTとすると、行列GTは以下の(4)式で求まる。この(4)式を用いて、把持力の方向をワールド座標系Σwで考慮することができる。   The map information creation unit 203 first performs unification processing for each coordinate system. The unification of the coordinate system of the robot 10, the imaging device 31, and the force sensor 33 is as described in the first embodiment. Therefore, the coordinate system of the gripping force measurement sensor 35 will be described below. In the present embodiment, the displacement from the tip coordinate system Σf of the robot 10 to the gripping force measurement sensor coordinate system Σg is defined as (GX, GY, GZ). Further, a 3 × 3 rotation matrix representing the posture of the gripping force measurement sensor 35 is defined as GM. Here, assuming that the gripping force applied to the robot 10 during the gripping operation as seen from the world coordinate system Σw is a 4 × 4 matrix GT, the matrix GT is obtained by the following equation (4). Using this equation (4), the direction of the gripping force can be considered in the world coordinate system Σw.

Figure 2017136677
Figure 2017136677

地図情報作成部203は、地図情報を作成する際には、上記(4)式と、上述した(1)〜(3)式とを用いて、異なる複数のセンサの座標系を統一する。そして、地図情報作成部203は、座標系が統一されたら、各センサから得られた情報を利用して地図情報を作成していく。このS23では、地図情報作成部203は、S10において作成した地図情報に対して、実際に対象物体41を把持した結果を付加する処理を行う。
S24では、CPU21は、S23において作成された地図情報と、部品DBを参照して得られる対象物体41の形状情報とをもとに、ロボット10が把持している物体が目標の対象物体41であるか否かを判定する。判定の際には、対象物体41を包んでいる周辺物体42の変形具合を考慮し、対象物体41の取りうる幅を推定する。そして、対象物体41の把持幅が、推定した取りうる幅以内である場合には、CPU21は、ロボット10が把持している物体が対象物体41であると判断する。把持している物体が対象物体41であると判断した場合には、動作を継続すると判断してS25へ移行する。一方、把持している物体が対象物体41ではないと判断した場合にはS12へ戻り、再度、把持位置を決定し、地図情報の作成を繰り返す。
When creating the map information, the map information creating unit 203 unifies the coordinate systems of different sensors using the above equation (4) and the above-described equations (1) to (3). Then, when the coordinate system is unified, the map information creation unit 203 creates map information using information obtained from each sensor. In S23, the map information creation unit 203 performs processing for adding the result of actually grasping the target object 41 to the map information created in S10.
In S24, the CPU 21 uses the map information created in S23 and the shape information of the target object 41 obtained by referring to the component DB, so that the object gripped by the robot 10 is the target target object 41. It is determined whether or not there is. In the determination, the possible width of the target object 41 is estimated in consideration of the deformation of the peripheral object 42 surrounding the target object 41. If the grip width of the target object 41 is within the estimated width, the CPU 21 determines that the object gripped by the robot 10 is the target object 41. If it is determined that the gripped object is the target object 41, it is determined that the operation is to be continued, and the process proceeds to S25. On the other hand, if it is determined that the gripped object is not the target object 41, the process returns to S12, the grip position is determined again, and the creation of map information is repeated.

S25では、行動計画部205は、把持した対象物体41に対する操作を実現するためのロボット10の行動計画を決定する。行動計画を決定する際には、行動計画部205は、把持位置をもとに、動作DBに蓄積されている部品種と作業手順の情報を参照する。
次にS26では、行動計画部205は、S25において決定した行動計画に基づいて、ロボット10へ動作指示情報を出力する。これにより、ロボット10は、エンドエフェクタ11によって把持した対象物体41を、動作DBに蓄積された作業手順に則って所定の場所へ搬送する。
このように、本実施形態では、上述した第一の実施形態と同様の手法により対象物体41を認識し、対象物体41を把持したとき、把持力計測センサ35を用いて把持した物体の把持幅を計測する。そして、計測した把持幅に基づいて、把持した物体が対象物体41であるか否かの判定を行い、地図情報をより詳細に作成する。これにより、大きさの異なる複数種類の対象物体41が存在する場合であっても、それぞれ高精度で認識することができる。そのため、異なる種類の対象物体41を正確に把持できるケースが増え、作業を継続できる可能性を拡大することができる。
In S <b> 25, the action plan unit 205 determines an action plan of the robot 10 for realizing an operation on the grasped target object 41. When determining an action plan, the action plan unit 205 refers to information on the part type and work procedure stored in the action DB based on the gripping position.
Next, in S26, the action plan unit 205 outputs the operation instruction information to the robot 10 based on the action plan determined in S25. Thereby, the robot 10 conveys the target object 41 gripped by the end effector 11 to a predetermined place in accordance with the work procedure accumulated in the operation DB.
Thus, in this embodiment, when the target object 41 is recognized and gripped by the same method as in the first embodiment described above, the gripping width of the object gripped using the gripping force measurement sensor 35 is determined. Measure. Based on the measured grip width, it is determined whether or not the gripped object is the target object 41, and map information is created in more detail. Thereby, even when there are a plurality of types of target objects 41 having different sizes, each of them can be recognized with high accuracy. Therefore, the number of cases in which different types of target objects 41 can be accurately grasped increases, and the possibility of continuing the work can be expanded.

具体的には、把持力計測部212は、把持位置において対象物体41を把持したときの把持幅情報を計測し、地図情報作成部203は、把持幅情報をさらに用いて対象物体41の位置および姿勢を認識する。したがって、より詳細に対象物体41を把持するための形状を認識することができる。例えば、対象物体41が大きさの異なる複数種類である場合にも、より高い精度で対象物体41の位置および姿勢を認識し、ロボット10による作業を継続できる可能性を拡大することができる。また、実際に対象物体41を把持したときの把持幅を計測するので、対象物体41の大きさを精度良く計測することができる。したがって、把持した物体が目標の対象物体41であるか否かを適切に判断することができる。   Specifically, the grip force measurement unit 212 measures grip width information when the target object 41 is gripped at the grip position, and the map information creation unit 203 further uses the grip width information to determine the position of the target object 41 and Recognize posture. Therefore, the shape for gripping the target object 41 can be recognized in more detail. For example, even when there are a plurality of types of target objects 41 having different sizes, the possibility of recognizing the position and orientation of the target object 41 with higher accuracy and continuing the operation by the robot 10 can be expanded. In addition, since the grip width when the target object 41 is actually gripped is measured, the size of the target object 41 can be measured with high accuracy. Therefore, it is possible to appropriately determine whether or not the gripped object is the target target object 41.

(第三の実施形態)
次に、第三の実施形態について説明する。
第三の実施例では、上述した第一、第二の実施例に対し、オクルージョンのある領域にエンドエフェクタ11を挿入したときに、作成した地図情報を利用することにより、周辺物体42と干渉することのないロボット10の行動計画を行うことができる。ここで、ロボットの制御の処理手順は図4に示すフローチャートと同じであるが、S13での処理が異なる。
オクルージョンのある領域にエンドエフェクタ11を挿入する場合とは、例えば図9(a)のように、撮像装置31が撮像できる領域A0に対して、対象物体41が存在する領域が周辺物体42などにより遮蔽されている状態にある場合である。この場合、図9(b)のように、対象物体41を認識できる領域A1と、撮像装置31が対象物体41を撮像しようとしても対象物体41を認識できない領域A2とが発生してしまう。この状態にあるとき、対象物体41を把持できたとしても、対象物体41を搬送して取り出すときに、撮像装置31によって撮像できない周辺物体42に干渉してしまうことで、把持している対象物体41を落下させてしまうおそれがある。
(Third embodiment)
Next, a third embodiment will be described.
In the third embodiment, in contrast to the first and second embodiments described above, when the end effector 11 is inserted in an occluded area, the created map information is used to interfere with the surrounding object 42. An action plan for the robot 10 can be made. Here, the processing procedure of the robot control is the same as the flowchart shown in FIG. 4, but the processing in S13 is different.
When the end effector 11 is inserted into a region where occlusion occurs, for example, as shown in FIG. This is the case when it is shielded. In this case, as shown in FIG. 9B, a region A1 in which the target object 41 can be recognized and a region A2 in which the target object 41 cannot be recognized even when the imaging device 31 tries to capture the target object 41 are generated. In this state, even if the target object 41 can be gripped, when the target object 41 is transported and taken out, it interferes with the peripheral object 42 that cannot be imaged by the imaging device 31, thereby holding the target object being gripped. 41 may be dropped.

そこで、本実施形態では、S13の処理において、S4、S10で作成・更新された地図情報を利用する。対象物体41を把持するまでに作成した地図情報は、対象物体41に限らず、周辺物体42に関する情報も含んでいる。そのため、ロボット10が対象物体41を把持してから搬送し、取り出すときの行動計画においては、周辺物体42の存在する空間的な情報を考慮し、ロボット10が移動可能な空間を限定する。
周辺物体42の位置情報取得にあたっては、力覚センサ33に代えて、接近した物体までの距離を検出する近接覚センサを用いてもよい。この場合、計測位置において、対象物体41に接触しているときに近接覚センサにより対象物体41までの距離情報を直接取得することで接触位置情報を計測し、地図情報を作成することができる。近接覚センサが図1や図6に示す力覚センサ33と近い位置に設置されている場合、近接覚センサは、エンドエフェクタ11の基部からロボット10の対象物体41に対する接触点の位置までの距離情報を取得することができる。さらに、近接覚センサを複数箇所に配置しておけば、一度に複数箇所の距離情報を計測して地図情報を作成することができる。そのため、撮像装置31による計測ではオクルージョンがある場合、対象物体41把持後の取出し動作において、対象物体41の周辺の周辺物体42に干渉することのないロボット10の動作をより短時間に計画することができる。
Therefore, in the present embodiment, the map information created and updated in S4 and S10 is used in the process of S13. The map information created until the target object 41 is gripped includes not only the target object 41 but also information on the peripheral object 42. For this reason, in the action plan when the robot 10 grips the target object 41 and then transports and takes it out, the space in which the robot 10 can move is limited in consideration of spatial information in which the peripheral object 42 exists.
When acquiring the position information of the peripheral object 42, a proximity sensor that detects the distance to the approaching object may be used instead of the force sensor 33. In this case, when the measurement object is in contact with the target object 41, the distance information to the target object 41 is directly acquired by the proximity sensor, whereby the contact position information can be measured and the map information can be created. When the proximity sensor is installed at a position close to the force sensor 33 shown in FIGS. 1 and 6, the proximity sensor is a distance from the base of the end effector 11 to the position of the contact point with respect to the target object 41 of the robot 10. Information can be acquired. Furthermore, if proximity sensors are arranged at a plurality of locations, map information can be created by measuring distance information at a plurality of locations at once. Therefore, when there is occlusion in the measurement by the imaging device 31, in the take-out operation after grasping the target object 41, the operation of the robot 10 that does not interfere with the peripheral object 42 around the target object 41 is planned in a shorter time. Can do.

また、力覚センサ33と近接覚センサとを両方用いて計測してもよい。力覚センサ33と近接覚センサとを両方利用することで、力覚センサ33による計測により高い精度で位置計測を行いながら、近接覚センサにより複数箇所を一度に計測して地図情報を作成することができる。これにより、より短時間に対象物体41と周辺物体42とを認識し、ロボット10の行動を適切に計画することができる。なお、近接覚センサは赤外線センサであってもよいし、磁気タイプや超音波タイプのセンサを用いてもよい。
こうすることによって、ロボット10が把持している対象物体41を搬送する際、搬送中に対象物体41が周辺物体42と干渉する可能性が低くなるので、搬送中に対象物体41が落下する恐れが低くなり、作業効率を向上することができる。
Moreover, you may measure using both the force sensor 33 and a proximity sensor. By using both the force sensor 33 and the proximity sensor, map information is created by measuring a plurality of locations at once with the proximity sensor while performing position measurement with high accuracy by measurement by the force sensor 33. Can do. Thereby, the target object 41 and the peripheral object 42 can be recognized in a shorter time, and the action of the robot 10 can be appropriately planned. The proximity sensor may be an infrared sensor, or may be a magnetic type or ultrasonic type sensor.
By doing so, when the target object 41 held by the robot 10 is transported, the possibility that the target object 41 interferes with the surrounding object 42 during transport is reduced, and therefore the target object 41 may fall during transport. The working efficiency can be improved.

(変形例)
上記各実施形態においては、ロボット10が把持動作に失敗した場合、把持位置決定部210は、把持動作に失敗した把持位置を次に把持動作を行う把持位置候補から除外し、別の場所から把持位置を決定するようにしてもよい。このように、地図情報を作成することにより、ロボット動作における同じ失敗を防ぐための処理が可能となる。これにより、ロボット10による作業時間を短縮することができる。
(Modification)
In each of the embodiments described above, when the robot 10 fails in the gripping operation, the gripping position determination unit 210 excludes the gripping position that has failed in the gripping operation from the gripping position candidates that are to be gripped next, and grips it from another location. The position may be determined. Thus, by creating the map information, it is possible to perform processing for preventing the same failure in the robot operation. Thereby, the working time by the robot 10 can be shortened.

また、上記各実施形態においては、ロボット10が対象物体41に接触したときの力覚情報から対象物体41の材質を認識し、認識した情報を利用して対象物体41を把持するようにしてもよい。例えば、上記各実施形態のように、対象物体41がビニール袋に包まれている場合、ロボット10がビニール袋に接触したとき、わずかにロボット10に力がかかる。その場合、ロボット10にかかった力から、ビニール袋が存在する空間が分かるので、ビニール袋を把持して対象物体41を操作(搬送)するようにしてもよい。これにより、対象物体41そのものを把持できない場合であっても、対象物体41を操作することができ、作業を継続できる可能性を向上させることができる。   In each of the above embodiments, the material of the target object 41 is recognized from the force information when the robot 10 contacts the target object 41, and the target object 41 is gripped using the recognized information. Good. For example, when the target object 41 is wrapped in a plastic bag as in the above-described embodiments, a slight force is applied to the robot 10 when the robot 10 contacts the plastic bag. In that case, since the space where the plastic bag exists can be known from the force applied to the robot 10, the target object 41 may be operated (conveyed) by holding the plastic bag. As a result, even when the target object 41 itself cannot be gripped, the target object 41 can be operated and the possibility that the work can be continued can be improved.

さらに、上記各実施形態においては、力覚センサ33を用いた対象物体41の詳細位置計測の後に、撮像装置31による対象物体41の表面位置計測を再度行ってもよい。力覚センサ33により複数回の計測が行われると、センサドリフトによりズレが蓄積されてしまう場合がある。したがって、適宜、撮像装置31による表面位置計測を行うことで、上記ズレを補正して地図情報を作成することができる。これにより、センサドリフトのズレによる影響を抑制し、より正確に地図情報を作成できるので、作業を正確に行える可能性を向上させることができる。   Further, in each of the above embodiments, after the detailed position measurement of the target object 41 using the force sensor 33, the surface position measurement of the target object 41 by the imaging device 31 may be performed again. When the force sensor 33 performs a plurality of measurements, the deviation may be accumulated due to sensor drift. Therefore, by appropriately measuring the surface position by the imaging device 31, the above-described deviation can be corrected and map information can be created. Thereby, since the influence by the shift | offset | difference of sensor drift can be suppressed and map information can be produced more correctly, possibility that an operation | work can be performed correctly can be improved.

また、上記各実施形態においては、撮像装置31による計測を最初に複数回行い、表面位置情報をより詳細に計測してもよい。これにより、その後の力覚センサ33や近接覚センサによる計測の回数を少なくすることができる。その結果、より短時間で対象物体41を認識し、ロボット10の行動を計画することができる。
さらに、上記各実施形態においては、位置および姿勢が認識された対象物体41を、ロボットによって把持し搬送する場合について説明した。しかしながら、対象物体41の位置および姿勢の認識が目的である場合、把持や搬送といったロボットによる操作は行わなくてもよい。本発明の効果は、表面位置情報だけでは対象物体41を正確に認識できない場合であっても、対象物体41の位置および姿勢を適切に認識できることである。そのため、認識された対象物体41の位置および姿勢に関する情報を作業者に提示(表示)したり、認識された対象物体41の位置および姿勢をもとに、対象物体41の検査を行ったりしてもよい。ここで、対象物体41の検査とは、対象物体41の形状を確認したり、望ましい位置にあるか確認したりすることである。
Further, in each of the above embodiments, the measurement by the imaging device 31 may be initially performed a plurality of times, and the surface position information may be measured in more detail. Thereby, the frequency | count of measurement by the subsequent force sensor 33 or a proximity sensor can be decreased. As a result, the target object 41 can be recognized in a shorter time and the action of the robot 10 can be planned.
Further, in each of the above embodiments, the case has been described in which the target object 41 whose position and orientation are recognized is gripped and transported by the robot. However, if the purpose is to recognize the position and orientation of the target object 41, an operation by a robot such as gripping or transporting may not be performed. The effect of the present invention is that the position and orientation of the target object 41 can be properly recognized even when the target object 41 cannot be accurately recognized only by the surface position information. Therefore, information regarding the position and orientation of the recognized target object 41 is presented (displayed) to the operator, or the target object 41 is inspected based on the recognized position and orientation of the target object 41. Also good. Here, the inspection of the target object 41 is to confirm the shape of the target object 41 or to confirm whether it is in a desired position.

また、認識された対象物体41の位置および姿勢をもとに、ロボットが対象物体41に対して把持を伴わない操作を行ってもよい。ここで、把持を伴わない操作とは、把持せずに対象物体41に接触し、対象物体41の位置を変化させる操作である。このように、対象物体41に対してロボットが操作を実行する場合、その操作は、把持を伴う操作であってもよいし把持を伴わない操作であってもよい。
さらに、表面位置情報や接触位置情報を取得するためのロボットは、1台であってもよいし複数台であってもよい。また、表面位置情報や接触位置情報を取得するためのロボットと、対象物体41に対して把持や搬送といった操作を実行するロボットとは、同じであってもよいし違っていてもよい。
Further, based on the recognized position and orientation of the target object 41, the robot may perform an operation without gripping the target object 41. Here, the operation that does not involve gripping is an operation that touches the target object 41 without gripping and changes the position of the target object 41. In this way, when the robot performs an operation on the target object 41, the operation may be an operation with gripping or an operation without gripping.
Furthermore, the robot for acquiring surface position information and contact position information may be one or plural. Further, the robot for acquiring the surface position information and the contact position information may be the same as or different from the robot that performs an operation such as gripping or transporting the target object 41.

また、上記各実施形態においては、ロボット10は、組立型ロボットである場合について説明したが、組立型ロボットに限定されるものではなく、移動ロボットであってもよい。
さらに、上記各実施形態においては、地図情報は3次元の情報である場合について説明したが、地図情報は2次元の情報でもよい。また、力計測部207により計測された力情報と位置計測部209により計測された位置情報との2つの情報のみに基づいて、地図情報を作成してもよい。
また、上記各実施形態においては、撮像装置31と光源32とは、レーザーレンジファインダ装置であってもよい。さらに、光源32を用いず、撮像装置31を2つ用いてステレオ計測を行ってもよいし、光源32を用いず撮像装置31を1つだけ用いてもよい。つまり、対象物体41と周辺物体42との表面位置を認識するための表面位置情報を計測できる構成であればよい。
In each of the above embodiments, the case where the robot 10 is an assembly-type robot has been described. However, the robot 10 is not limited to an assembly-type robot, and may be a mobile robot.
Further, in each of the above embodiments, the case where the map information is three-dimensional information has been described, but the map information may be two-dimensional information. Further, the map information may be created based on only two pieces of information, that is, the force information measured by the force measuring unit 207 and the position information measured by the position measuring unit 209.
In each of the above embodiments, the imaging device 31 and the light source 32 may be a laser range finder device. Furthermore, stereo measurement may be performed using two imaging devices 31 without using the light source 32, or only one imaging device 31 may be used without using the light source 32. In other words, any configuration that can measure surface position information for recognizing the surface positions of the target object 41 and the peripheral object 42 may be used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10…ロボット、11…エンドエフェクタ、20,20´…情報処理装置、31…撮像装置、32…光源、33…力覚センサ、34…位置検出センサ、35…把持力計測センサ、41…対象物体、42…周辺物体、100…ロボットシステム   DESCRIPTION OF SYMBOLS 10 ... Robot, 11 ... End effector, 20, 20 '... Information processing apparatus, 31 ... Imaging device, 32 ... Light source, 33 ... Force sensor, 34 ... Position detection sensor, 35 ... Gripping force measurement sensor, 41 ... Target object 42 ... peripheral objects, 100 ... robot system

Claims (17)

対象物体と周辺物体からなる物体を認識する情報処理装置であって、
物体の表面位置情報を取得する取得手段と、
前記取得手段により取得された前記表面位置情報に基づいて、前記物体を実測するための計測位置を決定する決定手段と、
前記決定手段により決定された前記計測位置において前記物体に接触したときの接触位置情報を計測する計測手段と、
前記計測手段により計測された前記接触位置情報に基づいて、前記物体の空間的な位置情報を示す地図情報を作成する作成手段と、
前記作成手段により作成された前記地図情報に基づいて、前記物体の位置および姿勢を認識する認識手段と、を備えることを特徴とする情報処理装置。
An information processing apparatus for recognizing an object composed of a target object and a surrounding object,
Obtaining means for obtaining surface position information of the object;
Determination means for determining a measurement position for actually measuring the object based on the surface position information acquired by the acquisition means;
Measuring means for measuring contact position information when contacting the object at the measurement position determined by the determining means;
Creating means for creating map information indicating spatial position information of the object based on the contact position information measured by the measuring means;
An information processing apparatus comprising: recognition means for recognizing the position and orientation of the object based on the map information created by the creation means.
前記作成手段は、
前記取得手段により取得された前記表面位置情報に基づいて前記地図情報を作成する第一の作成手段と、
前記計測手段により計測された前記接触位置情報に基づいて、前記第一の作成手段により作成された前記地図情報を更新する第二の作成手段を備えることを特徴とする請求項1に記載の情報処理装置。
The creating means includes
First creating means for creating the map information based on the surface position information obtained by the obtaining means;
2. The information according to claim 1, further comprising: a second creation unit that updates the map information created by the first creation unit based on the contact position information measured by the measurement unit. Processing equipment.
前記決定手段は、
前記取得手段により取得された前記表面位置情報に基づいて、前記物体の表面が凸形状である位置を検出し、検出した位置を前記計測位置として決定することを特徴とする請求項1または2に記載の情報処理装置。
The determining means includes
The position according to claim 1 or 2, wherein a position where the surface of the object has a convex shape is detected based on the surface position information acquired by the acquisition means, and the detected position is determined as the measurement position. The information processing apparatus described.
前記取得手段は、
前記物体を撮像した画像情報に基づいて、前記表面位置情報を取得することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
The acquisition means includes
The information processing apparatus according to claim 1, wherein the surface position information is acquired based on image information obtained by imaging the object.
前記計測手段は、
前記物体に接触したときの反力を取得する第一の取得手段と、
前記物体との接触点の位置を取得する第二の取得手段と、を備え、
前記第一の取得手段によって取得された反力が所定の上限値に達したときに前記第二の取得手段によって取得された前記接触点の位置を、前記接触位置情報として計測することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
The measuring means includes
First acquisition means for acquiring a reaction force when contacting the object;
Second acquisition means for acquiring a position of a contact point with the object,
The position of the contact point acquired by the second acquisition unit when the reaction force acquired by the first acquisition unit reaches a predetermined upper limit value is measured as the contact position information. The information processing apparatus according to any one of claims 1 to 4.
前記計測手段は、
接近した前記物体までの距離を取得する第三の取得手段を備え、
前記物体に接触しているときに前記第三の取得手段によって取得された距離に基づいて、前記接触位置情報を計測することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
The measuring means includes
Comprising a third acquisition means for acquiring a distance to the object approached;
The information according to any one of claims 1 to 5, wherein the contact position information is measured based on a distance acquired by the third acquisition unit when the object is in contact with the object. Processing equipment.
前記認識手段により認識された前記物体の位置および姿勢に基づいて、ロボットが前記物体を把持可能な把持位置を決定する第二の決定手段をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。   7. The apparatus according to claim 1, further comprising second determination means for determining a gripping position at which the robot can grip the object based on the position and orientation of the object recognized by the recognition means. The information processing apparatus according to claim 1. 前記第二の決定手段は、
周囲に前記ロボットの把持部が挿入可能な空間を有する位置を、前記把持位置として決定することを特徴とする請求項7に記載の情報処理装置。
The second determining means includes
The information processing apparatus according to claim 7, wherein a position having a space around which the grip portion of the robot can be inserted is determined as the grip position.
前記第二の決定手段により決定された前記把持位置において前記物体を把持したときの把持幅情報を計測する第二の計測手段をさらに備え、
前記認識手段は、
前記第二の計測手段により計測された前記把持幅情報をさらに用いて、前記物体の位置および姿勢を認識することを特徴とする請求項7または8に記載の情報処理装置。
Further comprising second measuring means for measuring grip width information when the object is gripped at the gripping position determined by the second determining means;
The recognition means is
9. The information processing apparatus according to claim 7, wherein the position and orientation of the object are recognized by further using the grip width information measured by the second measuring unit.
前記請求項1から9のいずれか1項に記載の情報処理装置に、前記物体に対して作業を実行するロボットの動作を制御する制御手段を備えることを特徴とするロボット制御装置。   10. The robot control apparatus according to claim 1, further comprising a control unit that controls an operation of a robot that performs work on the object. 前記請求項10に記載のロボット制御装置に、センサおよび前記ロボットの少なくとも一方を備えることを特徴とするロボットシステム。   The robot control apparatus according to claim 10, comprising at least one of a sensor and the robot. 前記センサは、前記物体を撮像し画像情報を取得する視覚センサを含むことを特徴とする請求項11に記載のロボットシステム。   The robot system according to claim 11, wherein the sensor includes a visual sensor that images the object and acquires image information. 前記センサは、前記物体に接触したときの反力を取得する力覚センサを含むことを特徴とする請求項11または12に記載のロボットシステム。   The robot system according to claim 11, wherein the sensor includes a force sensor that acquires a reaction force when the sensor comes into contact with the object. 前記センサは、前記ロボットの位置および姿勢を取得する位置検出センサを含むことを特徴とする請求項11から13のいずれか1項に記載のロボットシステム。   The robot system according to claim 11, wherein the sensor includes a position detection sensor that acquires a position and a posture of the robot. 前記センサは、前記物体を把持したときの反力を取得する力覚センサを含むことを特徴とする請求項11から14のいずれか1項に記載のロボットシステム。   The robot system according to any one of claims 11 to 14, wherein the sensor includes a force sensor that acquires a reaction force when the object is gripped. 対象物体と周辺物体からなる物体の表面位置情報を取得するステップと、
取得された前記表面位置情報に基づいて、前記物体を実測するための計測位置を決定するステップと、
決定された前記計測位置において前記物体に接触したときの接触位置情報を計測するステップと、
計測された前記接触位置情報に基づいて、前記物体の空間的な位置情報を示す地図情報を作成するステップと、
作成された前記地図情報に基づいて、前記物体の位置および姿勢を認識するステップと、を含むことを特徴とする情報処理方法。
Obtaining surface position information of an object composed of a target object and surrounding objects;
Determining a measurement position for actually measuring the object based on the acquired surface position information;
Measuring contact position information when contacting the object at the determined measurement position;
Creating map information indicating spatial position information of the object based on the measured contact position information;
Recognizing the position and orientation of the object based on the created map information.
コンピュータを、前記請求項1から9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the information processing apparatus according to any one of claims 1 to 9.
JP2016092681A 2015-07-29 2016-05-02 Information processing device, information processing method, robot control device and robot system Active JP6752615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/209,489 US10335951B2 (en) 2015-07-29 2016-07-13 Information processing apparatus, information processing method, robot control apparatus, and robot system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015149244 2015-07-29
JP2015149244 2015-07-29
JP2016019296 2016-02-03
JP2016019296 2016-02-03

Publications (2)

Publication Number Publication Date
JP2017136677A true JP2017136677A (en) 2017-08-10
JP6752615B2 JP6752615B2 (en) 2020-09-09

Family

ID=59566515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092681A Active JP6752615B2 (en) 2015-07-29 2016-05-02 Information processing device, information processing method, robot control device and robot system

Country Status (1)

Country Link
JP (1) JP6752615B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019089157A (en) * 2017-11-14 2019-06-13 オムロン株式会社 Holding method, holding system, and program
KR20190070386A (en) * 2017-12-12 2019-06-21 한국로봇융합연구원 Robot hand for grasping object by using visual information and tactual information and control method thereof
KR20190070387A (en) * 2017-12-12 2019-06-21 한국로봇융합연구원 Robot hand for performing task using regrasping and control method thereof
KR20190070385A (en) * 2017-12-12 2019-06-21 한국로봇융합연구원 Robot hand for grasping unknown object and control method thereof
CN110065067A (en) * 2018-01-23 2019-07-30 丰田自动车株式会社 Motion profile generating device
JP2019188580A (en) * 2018-04-27 2019-10-31 キヤノン株式会社 Information processing device, control method, robot system, computer program, and storage medium
KR20200074747A (en) * 2018-12-17 2020-06-25 전자부품연구원 Flexible object recognition apparatus and method
JPWO2020008538A1 (en) * 2018-07-03 2020-07-27 三菱電機株式会社 Material estimation device and robot
JP2021000716A (en) * 2019-06-20 2021-01-07 广州蕭浦科技有限公司 Robot arm for classification of PET bottle production line
CN112272601A (en) * 2018-07-17 2021-01-26 欧姆龙株式会社 Parameter identification device, method, and program
WO2021033509A1 (en) * 2019-08-21 2021-02-25 ソニー株式会社 Information processing device, information processing method, and program
WO2022114042A1 (en) 2020-11-30 2022-06-02 住友重機械工業株式会社 Information processing device, and picking device
WO2022185761A1 (en) * 2021-03-04 2022-09-09 ソニーグループ株式会社 Information processing system, information processing method, and information processing device
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP2023522179A (en) * 2020-04-14 2023-05-29 リアルタイム ロボティクス, インコーポレーテッド Configuring the robot operating environment, including sensor placement
JP7446028B1 (en) 2023-06-16 2024-03-08 株式会社ユニテック Picking equipment, picking system, picking method and program
US11964393B2 (en) 2018-03-21 2024-04-23 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
US11970161B2 (en) 2018-01-12 2024-04-30 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
US12017364B2 (en) 2019-04-17 2024-06-25 Realtime Robotics, Inc. Motion planning graph generation user interface, systems, methods and articles

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6039087A (en) * 1983-08-12 1985-02-28 ダイセル化学工業株式会社 Robot
JPS62148177A (en) * 1985-12-19 1987-07-02 株式会社東芝 Manipulator hand
JPS63256383A (en) * 1987-04-13 1988-10-24 富士通株式会社 Method of controlling robot
JPH04146090A (en) * 1990-10-05 1992-05-20 Nippon Telegr & Teleph Corp <Ntt> Article holding and moving method using robot
JPH04240087A (en) * 1991-01-21 1992-08-27 Fuji Electric Co Ltd Gripping method and device
JPH04289087A (en) * 1991-02-21 1992-10-14 Mitsubishi Electric Corp Robot device
JPH05318363A (en) * 1992-05-21 1993-12-03 Sanyo Electric Co Ltd Method for controlling robot
JPH0631666A (en) * 1992-07-15 1994-02-08 Fujitsu Ltd Intelligent robot
JPH1124718A (en) * 1997-07-07 1999-01-29 Toshiba Corp Device and method for controlling robot
US20060111810A1 (en) * 2002-02-16 2006-05-25 Mun-Sang Kim Working robot, actuator and control method thereof
JP2008272886A (en) * 2007-04-27 2008-11-13 Nissan Motor Co Ltd Gripping candidate position selecting device, gripping candidate position selecting method, gripping passage forming device and gripping passage forming method
US20100272547A1 (en) * 2007-06-12 2010-10-28 Norbert Cottone Method And System For Depalletizing Tires Using a Robot
JP2011073066A (en) * 2009-09-29 2011-04-14 Canon Inc Object grasping control method and apparatus
JP2012011531A (en) * 2010-07-05 2012-01-19 Yaskawa Electric Corp Robot apparatus and gripping method for use in robot apparatus
JP2013082041A (en) * 2011-10-12 2013-05-09 Seiko Epson Corp Robot
JP2015089589A (en) * 2013-11-05 2015-05-11 ファナック株式会社 Method and apparatus for extracting bulked article by using robot

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6039087A (en) * 1983-08-12 1985-02-28 ダイセル化学工業株式会社 Robot
JPS62148177A (en) * 1985-12-19 1987-07-02 株式会社東芝 Manipulator hand
JPS63256383A (en) * 1987-04-13 1988-10-24 富士通株式会社 Method of controlling robot
JPH04146090A (en) * 1990-10-05 1992-05-20 Nippon Telegr & Teleph Corp <Ntt> Article holding and moving method using robot
JPH04240087A (en) * 1991-01-21 1992-08-27 Fuji Electric Co Ltd Gripping method and device
JPH04289087A (en) * 1991-02-21 1992-10-14 Mitsubishi Electric Corp Robot device
JPH05318363A (en) * 1992-05-21 1993-12-03 Sanyo Electric Co Ltd Method for controlling robot
JPH0631666A (en) * 1992-07-15 1994-02-08 Fujitsu Ltd Intelligent robot
JPH1124718A (en) * 1997-07-07 1999-01-29 Toshiba Corp Device and method for controlling robot
US20060111810A1 (en) * 2002-02-16 2006-05-25 Mun-Sang Kim Working robot, actuator and control method thereof
JP2008272886A (en) * 2007-04-27 2008-11-13 Nissan Motor Co Ltd Gripping candidate position selecting device, gripping candidate position selecting method, gripping passage forming device and gripping passage forming method
US20100272547A1 (en) * 2007-06-12 2010-10-28 Norbert Cottone Method And System For Depalletizing Tires Using a Robot
JP2011073066A (en) * 2009-09-29 2011-04-14 Canon Inc Object grasping control method and apparatus
JP2012011531A (en) * 2010-07-05 2012-01-19 Yaskawa Electric Corp Robot apparatus and gripping method for use in robot apparatus
JP2013082041A (en) * 2011-10-12 2013-05-09 Seiko Epson Corp Robot
JP2015089589A (en) * 2013-11-05 2015-05-11 ファナック株式会社 Method and apparatus for extracting bulked article by using robot

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019089157A (en) * 2017-11-14 2019-06-13 オムロン株式会社 Holding method, holding system, and program
KR102109696B1 (en) 2017-12-12 2020-05-13 한국로봇융합연구원 Robot hand for grasping unknown object and control method thereof
KR102067878B1 (en) 2017-12-12 2020-01-17 한국로봇융합연구원 Robot hand for performing task using regrasping and control method thereof
KR20190070385A (en) * 2017-12-12 2019-06-21 한국로봇융합연구원 Robot hand for grasping unknown object and control method thereof
KR20190070386A (en) * 2017-12-12 2019-06-21 한국로봇융합연구원 Robot hand for grasping object by using visual information and tactual information and control method thereof
KR102109697B1 (en) 2017-12-12 2020-05-13 한국로봇융합연구원 Robot hand for grasping object by using visual information and tactual information and control method thereof
KR20190070387A (en) * 2017-12-12 2019-06-21 한국로봇융합연구원 Robot hand for performing task using regrasping and control method thereof
US11970161B2 (en) 2018-01-12 2024-04-30 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
JP2019126866A (en) * 2018-01-23 2019-08-01 トヨタ自動車株式会社 Motion trajectory generation apparatus
CN110065067A (en) * 2018-01-23 2019-07-30 丰田自动车株式会社 Motion profile generating device
CN110065067B (en) * 2018-01-23 2021-12-28 丰田自动车株式会社 Motion trajectory generation device
US11964393B2 (en) 2018-03-21 2024-04-23 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP2019188580A (en) * 2018-04-27 2019-10-31 キヤノン株式会社 Information processing device, control method, robot system, computer program, and storage medium
JP7154815B2 (en) 2018-04-27 2022-10-18 キヤノン株式会社 Information processing device, control method, robot system, computer program, and storage medium
JPWO2020008538A1 (en) * 2018-07-03 2020-07-27 三菱電機株式会社 Material estimation device and robot
CN112272601A (en) * 2018-07-17 2021-01-26 欧姆龙株式会社 Parameter identification device, method, and program
KR20200074747A (en) * 2018-12-17 2020-06-25 전자부품연구원 Flexible object recognition apparatus and method
KR102281218B1 (en) * 2018-12-17 2021-07-23 한국전자기술연구원 Flexible object recognition apparatus and method
US12017364B2 (en) 2019-04-17 2024-06-25 Realtime Robotics, Inc. Motion planning graph generation user interface, systems, methods and articles
JP2021000716A (en) * 2019-06-20 2021-01-07 广州蕭浦科技有限公司 Robot arm for classification of PET bottle production line
WO2021033509A1 (en) * 2019-08-21 2021-02-25 ソニー株式会社 Information processing device, information processing method, and program
JP2023522179A (en) * 2020-04-14 2023-05-29 リアルタイム ロボティクス, インコーポレーテッド Configuring the robot operating environment, including sensor placement
JP7450297B2 (en) 2020-04-14 2024-03-15 リアルタイム ロボティクス, インコーポレーテッド Configuration of robot operating environment including sensor placement
WO2022114042A1 (en) 2020-11-30 2022-06-02 住友重機械工業株式会社 Information processing device, and picking device
WO2022185761A1 (en) * 2021-03-04 2022-09-09 ソニーグループ株式会社 Information processing system, information processing method, and information processing device
JP7446028B1 (en) 2023-06-16 2024-03-08 株式会社ユニテック Picking equipment, picking system, picking method and program

Also Published As

Publication number Publication date
JP6752615B2 (en) 2020-09-09

Similar Documents

Publication Publication Date Title
JP6752615B2 (en) Information processing device, information processing method, robot control device and robot system
US10335951B2 (en) Information processing apparatus, information processing method, robot control apparatus, and robot system
JP7154815B2 (en) Information processing device, control method, robot system, computer program, and storage medium
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
US10800033B2 (en) Robot control apparatus, robot control method, robot system, and storage medium
JP5281414B2 (en) Method and system for automatic workpiece gripping
JP5897624B2 (en) Robot simulation device for simulating workpiece removal process
JP5778311B1 (en) Picking apparatus and picking method
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
US20200101613A1 (en) Information processing apparatus, information processing method, and system
JP6348097B2 (en) Work position and orientation calculation device and handling system
US20150127162A1 (en) Apparatus and method for picking up article randomly piled using robot
JP2018501973A5 (en)
JP2019188516A (en) Information processor, information processing method, and program
JP6541397B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2017101946A (en) Position attitude measurement device for multiple article and robot system including the same device
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP2017061025A (en) Robot control device, robot control method and computer program
US10105847B1 (en) Detecting and responding to geometric changes to robots
Huang et al. Sensor-aided teleoperated grasping of transparent objects
JP2016159406A (en) Robot control device, robot control method and robot system
EP4094904B1 (en) Robot system control device, robot system control method, computer control program, and robot system
CN117794704A (en) Robot control device, robot control system, and robot control method
JP2022060003A (en) Information processing device, method for controlling information processing device and program
JP2021010994A (en) Sensor position attitude calibration apparatus and sensor position attitude calibration method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200819

R151 Written notification of patent or utility model registration

Ref document number: 6752615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151