JP6958517B2 - Manipulators and mobile robots - Google Patents
Manipulators and mobile robots Download PDFInfo
- Publication number
- JP6958517B2 JP6958517B2 JP2018168029A JP2018168029A JP6958517B2 JP 6958517 B2 JP6958517 B2 JP 6958517B2 JP 2018168029 A JP2018168029 A JP 2018168029A JP 2018168029 A JP2018168029 A JP 2018168029A JP 6958517 B2 JP6958517 B2 JP 6958517B2
- Authority
- JP
- Japan
- Prior art keywords
- sensing
- unit
- imaging
- sensing position
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Description
本発明は、ワークを搬送するためのマニピュレータおよび移動ロボットに関する。 The present invention relates to a manipulator and a mobile robot for transporting a work.
近年、ワークを把持して搬送する装置において、ワークを検出するためのカメラの撮像範囲を拡大させるために、カメラを移動させて撮像する方法が提案されている。その代表例として、ロボットアームの先端にカメラを取り付けたハンドアイシステムが知られている。しかしながら、カメラが移動する場合、カメラとワークとの位置関係が、上記ワークの撮像に好ましくない場合が発生する。 In recent years, in an apparatus for gripping and transporting a work, a method of moving the camera to take an image has been proposed in order to expand the imaging range of the camera for detecting the work. As a typical example, a hand-eye system in which a camera is attached to the tip of a robot arm is known. However, when the camera moves, the positional relationship between the camera and the work may not be preferable for imaging the work.
そのため、特許文献1には、無人搬送車に搭載されるロボットアームの制御方法であって、上記ロボットアームに固定された画像入力部によって2つのマークを認識し、少なくとも1つの上記マークを認識できれば、上記ロボットアームの再移動により、上記2つのマークを同時に視野領域内に捕えることができる、ロボットアームの制御方法が開示されている。
Therefore, in
また、特許文献2には、ロボットアームに撮像装置が取り付けられており、上記撮像装置により、ワークを含む領域の画像を生成する。生成した上記画像において、パターンマッチングにより特徴部を特定できなかった場合に、上記ワークと上記撮像装置と照明装置との間の相対位置または相対姿勢が変わるように上記ロボットアームを動作させ、上記ワークを再び撮像し、これにより生成された画像に対し、パターンマッチングを再び行う、ワークの把持方法が開示されている。
Further, in
上述のような従来技術は、ワークが検出できなかった場合、カメラの位置を変化させ再撮像することにより、上記ワークの検出を可能にしている。しかしながら、上記ワークを再撮像する場合、上記カメラを移動させ、再撮像および画像解析を行うための時間が余計にかかる。したがって、上記ワークの搬送作業時間が増加し、費用対効果が低減するという問題がある。 In the conventional technique as described above, when the work cannot be detected, the work can be detected by changing the position of the camera and re-imaging. However, when re-imaging the work, it takes extra time to move the camera to perform re-imaging and image analysis. Therefore, there is a problem that the transfer work time of the work is increased and the cost effectiveness is reduced.
本発明の一態様は、再センシングによる搬送作業時間の増加を抑制するために、ワークの検出成功率が向上したマニピュレータを実現することを目的とする。 One aspect of the present invention is to realize a manipulator having an improved work detection success rate in order to suppress an increase in transport work time due to resensing.
上記の課題を解決するために、本開示の一態様に係るマニピュレータは、対象物に対する把持動作を行うロボットアームと、前記ロボットアームに設けられた、複数の前記対象物が載置されることが可能な所定の空間領域を光または超音波によりセンシングするセンサ部と、前記空間領域に対応付けられたセンシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御するセンシング位置制御部と、前記センシング位置における前記センサ部によるセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定する対象物特定部と、前記対象物特定部によって特定された、今回の把持動作において把持すべき前記対象物を把持するように前記ロボットアームの動作を制御する把持動作制御部と、前記センシング位置における前記センサ部によるセンシング結果を解析し、次回の把持動作の前の次回のセンシング動作のためのセンシング位置を特定し、前記センシング位置情報を更新するセンシング位置更新部と、を備える。 In order to solve the above problems, the manipulator according to one aspect of the present disclosure may include a robot arm that grips an object and a plurality of the objects provided on the robot arm. The operation of the robot arm is controlled so as to move the sensor unit that senses a possible predetermined space region by light or ultrasonic waves and the sensor unit to a sensing position corresponding to the sensing position information associated with the space region. The sensing result of the sensing position control unit and the sensor unit at the sensing position are analyzed, and the object identification unit that identifies the object to be gripped in this gripping operation and the object identification unit identify the object. The gripping motion control unit that controls the motion of the robot arm so as to grip the object to be gripped in the current gripping motion and the sensor unit at the sensing position are analyzed, and the next gripping motion is performed. It is provided with a sensing position updating unit that specifies a sensing position for the previous next sensing operation and updates the sensing position information.
上記の構成によれば、センサ部がセンシングしたセンシング結果に基づいて、今回の把持動作において把持すべき対象物が特定されるため、ロボットアームにより把持すべき対象物を把持および搬送できる。また、次回のセンシングにおいて、センサ部は、次回の把持対象となる対象物をセンシングすることができる位置に移動してセンシングすることができる。そのため、次回の把持対象となる対象物を検出できず、再センシングが必要となる可能性を低減できる。 According to the above configuration, since the object to be gripped in the current gripping operation is specified based on the sensing result sensed by the sensor unit, the object to be gripped by the robot arm can be gripped and conveyed. Further, in the next sensing, the sensor unit can move to a position where the object to be gripped next time can be sensed and sense the object. Therefore, it is possible to reduce the possibility that the object to be gripped next time cannot be detected and resensing is required.
なお、今回のセンシング位置と次回のセンシング位置とは互いに異なる。そのため、次回のセンシング結果に新たな(次々回の)把持対象となる対象物が含まれる可能性が高くなる。それゆえ、次々と把持対象となる対象物を検出し、対象物の位置を特定することができる。 The current sensing position and the next sensing position are different from each other. Therefore, there is a high possibility that the next sensing result will include a new (one after another) object to be gripped. Therefore, it is possible to detect the object to be gripped one after another and specify the position of the object.
前記センサ部は、前記所定の空間領域を撮像する撮像部であり、前記センシング位置情報は、撮像位置情報であり、前記センシング位置は、撮像位置であり、前記センシング位置制御部は、前記撮像位置情報に応じた前記撮像位置に前記撮像部を移動させるように前記ロボットアームの動作を制御する撮像位置制御部であり、前記センシング結果は、撮像画像であり、前記センシング動作は、撮像動作であり、前記センシング位置更新部は、前記撮像位置情報を更新する撮像位置更新部である構成であってもよい。 The sensor unit is an imaging unit that captures an image of the predetermined spatial region, the sensing position information is imaging position information, the sensing position is an imaging position, and the sensing position control unit is the imaging position. It is an imaging position control unit that controls the operation of the robot arm so as to move the imaging unit to the imaging position according to the information, the sensing result is an image captured image, and the sensing operation is an imaging operation. The sensing position update unit may be configured to be an image pickup position update unit that updates the image pickup position information.
前記センシング位置更新部は、前記センシング位置における前記センサ部によるセンシング結果を解析し、次回の把持動作において把持すべき前記対象物の位置に基づいて前記センシング位置情報を更新してもよい。 The sensing position update unit may analyze the sensing result by the sensor unit at the sensing position and update the sensing position information based on the position of the object to be gripped in the next gripping operation.
上記の構成によれば、より確実に、次回の把持動作において把持すべき対象物を検出できるようなセンシング結果を得ることができる。そのため、次回の把持対象となる対象物を検出できず、再センシングが必要となる可能性をより低減できる。 According to the above configuration, it is possible to obtain a sensing result that can more reliably detect an object to be gripped in the next gripping operation. Therefore, it is possible to further reduce the possibility that the object to be gripped next time cannot be detected and resensing is required.
前記対象物特定部が前記センシング結果を解析した結果、今回の把持動作において把持すべき前記対象物が検出できない場合に、前記センシング位置制御部は、前記センサ部を所定量移動させるように前記ロボットアームの動作を制御し、前記対象物特定部は、前記センサ部が移動後の位置で再度センシングをおこなったセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定してもよい。 As a result of analyzing the sensing result by the object identification unit, when the object to be gripped cannot be detected in the current gripping operation, the sensing position control unit moves the sensor unit by a predetermined amount. Even if the movement of the arm is controlled, the object identification unit analyzes the sensing result of the sensor unit performing sensing again at the position after movement, and identifies the object to be gripped in this gripping operation. good.
上記の構成によれば、センサ部によってセンシングされたセンシング結果に把持すべき対象物が検出できない場合でも、マニピュレータは自動的に把持すべき対象物を探して見つけ出すことができる。 According to the above configuration, even if the object to be gripped cannot be detected in the sensing result sensed by the sensor unit, the manipulator can automatically search for and find the object to be gripped.
上述の何れかのマニピュレータは、無人搬送車に載置されてもよい。 Any of the above-mentioned manipulators may be mounted on an automatic guided vehicle.
上記の課題を解決するために、本開示の一態様に係る移動ロボットは、上述の何れかのマニピュレータと、前記マニピュレータを載置する無人搬送車とを備える。 In order to solve the above problems, the mobile robot according to one aspect of the present disclosure includes any of the above-mentioned manipulators and an automatic guided vehicle on which the manipulators are mounted.
上記の構成によれば、マニピュレータを無人搬送車により移動させることができる。 According to the above configuration, the manipulator can be moved by an automatic guided vehicle.
前記センシング位置更新部が特定したセンシング位置情報を、通信によって外部装置に送信するとともに、前記外部装置から別のマニピュレータによるセンシング結果に基づくセンシング位置情報を受信する通信部をさらに備え、前記センシング位置制御部が、前記通信部によって受信された前記センシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御してもよい。 The sensing position control is further provided with a communication unit that transmits the sensing position information specified by the sensing position update unit to an external device by communication and receives the sensing position information based on the sensing result by another manipulator from the external device. The operation of the robot arm may be controlled so that the unit moves the sensor unit to a sensing position corresponding to the sensing position information received by the communication unit.
上記の構成によれば、複数のマニピュレータと、外部装置とが相互に通信し、センシング位置情報の共有を行うことで、マニピュレータが利用できるセンシング位置情報の量は飛躍的に多くなる。これにより、適切な位置にセンサ部を移動させてセンシングできる可能性が向上し、把持対象となる対象物を検出できる可能性が向上する。そのため、マニピュレータが把持対象となる対象物を検出できず、再度センシングを行う可能性を低減できる。 According to the above configuration, the amount of sensing position information that can be used by the manipulator is dramatically increased by communicating with each other and sharing the sensing position information between the plurality of manipulators and the external device. As a result, the possibility of moving the sensor unit to an appropriate position for sensing is improved, and the possibility of detecting an object to be gripped is improved. Therefore, the manipulator cannot detect the object to be gripped, and the possibility of performing sensing again can be reduced.
なお、上記外部装置は、後述するサーバでもよいし、他のマニピュレータでもよい。上記外部装置が他のマニピュレータである場合、特定のマニピュレータがサーバ機能を有していてもよいし、複数のマニピュレータの間で上記センシング位置情報を相互に送受信してもよい。 The external device may be a server described later or another manipulator. When the external device is another manipulator, the specific manipulator may have a server function, or the sensing position information may be transmitted and received between a plurality of manipulators.
前記無人搬送車による移動が行われていない期間に複数の前記対象物の把持動作を繰り返す場合に、前記センシング位置制御部は、前記通信部によって受信される前記センシング位置情報を利用せずに、前記センシング位置更新部が前回の把持動作において特定したセンシング位置情報を利用して、前記センサ部の移動制御を行ってもよい。 When the gripping operation of the plurality of objects is repeated during the period when the automatic guided vehicle is not moving, the sensing position control unit does not use the sensing position information received by the communication unit. The movement control of the sensor unit may be performed by using the sensing position information specified by the sensing position updating unit in the previous gripping operation.
上記の構成によれば、マニピュレータが自ら生成した最新のセンシング位置情報によって、センサ部を、次回の把持対象となる対象物をセンシングできる位置に移動させることができる。また、外部装置からセンシング位置情報を受信する必要がなくなる。 According to the above configuration, the sensor unit can be moved to a position where the object to be gripped next time can be sensed by the latest sensing position information generated by the manipulator itself. Further, it is not necessary to receive the sensing position information from the external device.
本開示の一態様によれば、再センシングによる搬送作業時間の増加を抑制するために、対象物の検出成功率が向上したマニピュレータを実現できる。 According to one aspect of the present disclosure, it is possible to realize a manipulator having an improved detection success rate of an object in order to suppress an increase in transport work time due to resensing.
〔実施形態1〕
以下、本発明の一側面に係る実施形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。
[Embodiment 1]
Hereinafter, an embodiment according to one aspect of the present invention (hereinafter, also referred to as “the present embodiment”) will be described with reference to the drawings.
§1 適用例
図1は、本実施形態に係る移動ロボット1を模式的に例示する。図2は、本実施形態に係る移動ロボット1の要部構成を例示するブロック図である。図3は、本実施形態に係るカメラ(撮像部)14により撮像される撮像領域であって、図3の(a)〜(c)は、それぞれ1〜3回目のワーク搬送前の撮像領域を模式的に示す図である。はじめに、図1〜図3を用いて、移動ロボット1の適用例の概要を説明する。
§1 Application example FIG. 1 schematically illustrates the
図1および図2に示すように、移動ロボット1は、ワーク(対象物)2を搬送するための装置である。移動ロボット1は、マニピュレータ10および無人搬送車50を備える。マニピュレータ10は、ロボットアーム11および筐体部15を備える。マニピュレータ10は、移動可能な無人搬送車50ではなく、固定台等に固定して載置されていてもよい。
As shown in FIGS. 1 and 2, the
ロボットアーム11は、ワーク2に対する把持動作を行う部材である。ロボットアーム11は、その一端に、ワーク2を把持するためのワーク把持部13と、カメラ14とを備える。
The
筐体部15は、制御装置20を備える。カメラ14は、複数のワーク2が載置されることが可能なストッカ3を含む撮像領域(空間領域)を撮像する。
The
図2に示すように、制御装置20は、制御部21および第1記憶部30を備える。制御部21は、撮像位置更新部22、対象物特定部23、把持動作制御部24、撮像位置制御部25、無人搬送車制御部26、およびカメラ制御部27を備える。
As shown in FIG. 2, the
撮像位置制御部25(センシング位置制御部)は、上記撮像領域に対応付けられた撮像位置情報(センシング位置情報)に応じた撮像位置(センシング位置)にカメラ14を移動させるように、ロボットアーム11の動作を制御する。ここで、上記撮像位置情報は、ユーザにより指定または更新されてもよく、後述するように撮像位置更新部22(センシング位置更新部)により更新されてもよい。
The imaging position control unit 25 (sensing position control unit) moves the
対象物特定部23は、上記撮像位置におけるカメラ14による撮像画像(センシング結果)を解析し、今回の把持動作において把持すべきワーク2を特定する。また、撮像位置更新部22は、上記撮像画像を解析し、次回の把持動作の前のカメラ14による上記撮像位置を特定し、前記撮像位置情報を更新する。ここで、「次回」の把持動作とは、対象物特定部23が特定したワーク2が把持され搬送された後に、連続して別のワーク2が搬送される場合の、当該別のワーク2に対する把持動作を示す。
The
把持動作制御部24は、対象物特定部23によって特定された今回の把持動作において把持すべきワーク2を把持するように、ロボットアーム11の動作を制御する。
The gripping
図3を用いて、移動ロボット1の動作の概要を説明する。図3の(a)に示すように、カメラ14は、上記撮像位置情報に基づき、ストッカ3を含む撮像領域A1を撮像する。撮像された撮像画像は対象物特定部23によって解析され、把持すべきワーク2aが特定される。
The outline of the operation of the
このとき、撮像位置更新部22は、上記撮像画像を解析し、次回の撮像位置を特定する。例えば、撮像位置更新部22は、次回の撮像画像の所定範囲に次回の把持対象となるワーク2bが含まれるよう、次回の撮像位置を特定してもよい。上記次回の撮像位置は、次回の把持対象となるワーク2bが撮像範囲の略中心となるように撮像されるような位置であってもよい。このように、撮像位置更新部22は、撮像位置を特定し第1記憶部30に記憶される撮像位置情報を更新する。
At this time, the imaging
撮像位置更新部22が次回の撮像位置を特定する構成によれば、次回の撮像において、カメラ14はワーク2bを撮像することができる位置から、ストッカ3を含む撮像領域を撮像することができる。そのため、次回の把持対象となるワークを検出できず、再撮像が必要となる可能性を低減できる。
According to the configuration in which the imaging
また、上記撮像位置として、ワーク2bが略中心となるような撮像位置が特定される構成によれば、より確実にワーク2bを検出できるような撮像画像を得ることができる。そのため、次回の把持対象となるワーク2bを検出できず、再撮像が必要となる可能性をより低減できる。
Further, according to the configuration in which the imaging position in which the
次に、図3の(b)に示すように、更新された撮像位置情報に基づき、カメラ14により撮像領域A2が撮像される。ここでも、対象物特定部23は撮像画像を解析してワーク2bを把持対象として特定し、撮像位置更新部22は撮像画像を解析して次回の把持対象となるワーク2cの位置に基づき撮像位置情報を更新する。このように、前回の撮像位置と今回の撮像位置とが互いに異なると、今回の撮像画像に新たな(次回の)把持対象となる対象物(ワーク2c)が含まれる可能性が高くなる。それゆえ、次々と把持対象となる対象物を検出し、対象物の位置を特定することができる。
Next, as shown in FIG. 3B, the image pickup region A2 is imaged by the
次に、図3の(c)に示すように、更新された撮像位置情報に基づき、カメラ14により撮像領域A3が撮像される。ここで、対象物特定部23はワーク2cを把持対象として特定するが、撮像領域A3には他のワーク2が明確に含まれていないため、撮像位置更新部22は、次回の把持対象となるワーク2を検出できない。
Next, as shown in FIG. 3C, the image pickup region A3 is imaged by the
この場合、撮像位置更新部22は、第1記憶部30に記憶された過去の撮像画像の解析結果を参照してもよい。例えば、撮像位置更新部22は、撮像領域A1が撮像された撮像画像を解析して未把持のワーク2dを次回の把持対象として特定し、ワーク2dが撮像範囲の略中心となるように撮像位置情報を更新してもよい。
In this case, the imaging
このような構成によれば、次回の把持対象となるワーク2を検出できる可能性がより高くなる。そのため、次回の把持対象となるワーク2を検出できず、再撮像が必要となる可能性を低減できる。
With such a configuration, there is a higher possibility that the
§2 構成例
(ロボットアーム11)
ロボットアーム11は、任意の方向に回転および屈曲可能に形成される関節部12を備える。ロボットアーム11が備える関節部12は、1つでもよく、複数でもよい。また、ロボットアーム11の一端は、筐体部15に、回転および屈曲可能な状態により取り付けられるように形成されている。
§2 Configuration example (robot arm 11)
The
ワーク把持部13は、ワーク2を真空吸着可能なバキュームパッドを備える。なお、ワーク把持部13はこれに限られず、例えば、ワーク2を挟んで把持するための1対の爪部を備えていてもよい。
The
カメラ14は、撮像対象を3次元的に認識可能な固体撮像素子およびレンズを備える。上記固体撮像素子は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等が用いられてもよい。このような構成によれば、把持対象となるワーク2の空間的位置を正確に把握することができる。なお、カメラ14はこのような例に限られず、例えば、2次元画像の撮像のみ可能な固体撮像素子およびレンズを備えていてもよい。
The
また、カメラ14は、ワーク把持部13を備えるロボットアーム11ではなく、カメラ14専用のロボットアームに備えられていてもよい。このような構成によれば、ワーク2の搬送と、カメラ14による撮像動作を独立して行うことができる。
Further, the
カメラ14が撮像した撮像情報は、制御装置20に入力される。また、上記撮像情報は第1記憶部30に入力され、記憶されてもよい。
The imaging information captured by the
(制御装置20)
制御装置20が備える制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、各構成要素を制御する。第1記憶部30は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部21で実行される各種プログラム並びに、カメラ14により撮像された撮像画像データおよび撮像位置情報等を記憶する。
(Control device 20)
The
撮像位置更新部22および対象物特定部23は、撮像画像におけるそれぞれの解析結果について、第1記憶部30に出力し、第1記憶部30は当該解析結果を記憶してもよい。また、記憶された上記解析結果は、適宜制御部21に読み出されてもよい。
The image pickup
また、撮像位置更新部22および対象物特定部23により解析される撮像画像は、過去にカメラ14に撮像され、第1記憶部30に記憶された撮像画像であってもよい。このような構成によれば、撮像位置更新部22および対象物特定部23が過去の撮像画像を参照することで、把持対象であるワーク2を検出できる可能性がより向上し、再撮像を抑制することができる。
Further, the captured image analyzed by the imaging
無人搬送車制御部26は、無人搬送車50の動作を制御し、移動ロボット1を所定の地点に移動させる。また、無人搬送車制御部26は、上記撮像位置情報等に基づいて無人搬送車50の動作を制御し、移動ロボット1の位置を微調整してもよい。
The automatic guided
カメラ制御部27は、カメラ14の撮像動作(センシング動作)を制御する。
The
(無人搬送車50)
無人搬送車50は、ホイール51を備える。ホイール51の動作が無人搬送車制御部26により制御されることで、無人搬送車50は、任意の地点に移動することができる。そのため、無人搬送車50に載置されるマニピュレータ10は、ロボットアーム11が届かない距離にある、離れた位置にワーク2を搬送することができる。また、マニピュレータ10が作業する地点を適宜変更することができる。
(Automated guided vehicle 50)
The automatic guided
なお、マニピュレータ10が、移動可能な移動ロボット1として構成されるために載置されるのは、無人搬送車50に限られない。例えば、飛行可能な無人航空機(ドローン)であってもよいし、手動により移動される台車等であってもよい。
The
§3 動作例
(カメラ14の移動)
図4は、本実施形態に係るカメラ14の撮像領域Aを模式的に例示する。まず、図4を用いてカメラ14が移動可能に備えられる意義について説明する。
§3 Operation example (movement of camera 14)
FIG. 4 schematically illustrates an imaging region A of the
図4に示すように、移動ロボット1が備えるカメラ14は、例えば、複数のワーク2が載置されているストッカ3を撮像領域Aとして撮像する。なお、ストッカ3は、シェルフ4等に載置されることで、立体的に複数備えられていてもよい。
As shown in FIG. 4, the
この場合、移動ロボット1は、ロボットアーム11の動作および無人搬送車50の移動によってカメラ14の位置を調整することで、任意のストッカ3を撮像領域Aに含めることができる。
In this case, the
しかし、図4に示すように、撮像領域A内に入っていても、ストッカ3の側壁に遮られる範囲、および、カメラ14から見て手前側に載置されたワーク2に遮られる範囲等は、カメラ14から死角となる。そのため、カメラ14により撮像された撮像画像には含まれないワーク2が、ストッカ3内に存在し得る。
However, as shown in FIG. 4, even if the camera is inside the imaging region A, the range blocked by the side wall of the
このような問題を解決するために、カメラ14が移動することができるように、例えば、ロボットアーム11の一端にカメラ14が備えられる。これにより、カメラ14の位置および方向が任意に調節可能となり、ストッカ3を様々な方向から撮像することで、上記死角を最小限にできる。
In order to solve such a problem, for example, a
一方、カメラ14がワーク2を最適に撮像できる撮像位置を特定するためには、例えば、予めカメラ14が撮像した撮像画像の画像解析を行うなどによって、上記撮像位置を特定する必要がある。しかし、カメラ14による撮像および上記撮像画像の画像解析処理は一定の時間を要するため、撮像回数が多くなると移動ロボット1の作業時間が増加する。
On the other hand, in order to specify the imaging position where the
そこで発明者は、鋭意検討の結果、ワーク2の検出成功率を向上させることで撮像回数を抑制し、上記遅延を招来しにくいように動作するマニピュレータ10および、このようなマニピュレータ10を備える移動ロボット1を見出した。
Therefore, as a result of diligent studies, the inventor has determined the number of imaging times by improving the detection success rate of the
(制御部21の処理の流れ)
図5は、本実施形態に係る制御部21における処理の流れの一例を示すフローチャートである。図5を用いて、制御部21における処理の流れの一例について説明する。
(Processing flow of control unit 21)
FIG. 5 is a flowchart showing an example of a processing flow in the
まず、撮像位置制御部25は、第1記憶部30から、把持対象となるワーク2を含む撮像領域Aに対応する撮像位置情報が取得できるか否かを判定する(S1)。上記撮像位置情報が取得できない場合(S1でNO)、制御部21は、ユーザが入力しておくなどしてあらかじめ第1記憶部30に設定された標準値を撮像位置情報として取得する(S2)。
First, the imaging
次に、上記撮像位置情報が取得できた場合(S1でYES)、またはステップS2において上記撮像位置情報が指定された場合、撮像位置制御部25は、上記撮像位置情報に基づいてロボットアーム11の動作を制御し、カメラ14を上記撮像位置に移動させる(S3)。そして、カメラ制御部27は、カメラ14に撮像領域Aを撮像させる。撮像された撮像画像は、対象物特定部23に入力され、対象物特定部23により画像解析が行われる(S4)。
Next, when the imaging position information can be acquired (YES in S1), or when the imaging position information is specified in step S2, the imaging
次に、対象物特定部23は、上記画像解析により把持対象となるワーク2が検出されたか否かを判定する(S5)。ここで、把持対象となるワーク2が検出されなかった場合(S5でNO)、撮像位置制御部25は、カメラ14の位置を所定量移動させるようにロボットアーム11の動作を制御する(S6)。
Next, the
なお、上記所定量として、ワーク2の種類および配置状態等により任意の値が設定されてもよい。また、上記任意の値の設定はユーザにより設定されてもよい。また、第1記憶部30に記憶された、撮像位置更新部22および対象物特定部23による撮像画像の解析結果に基づき、制御部21により自動的に設定および更新されてもよい。
As the predetermined amount, an arbitrary value may be set depending on the type of the
次に、カメラ制御部27は、カメラ14により移動後における撮像領域Aを撮像させ、対象物特定部23は、カメラ14により撮像された撮像画像を解析する(S7)。そして、対象物特定部23は再度、上記画像解析により把持対象となるワーク2が検出されるか否かを判定する(S8)。把持対象となるワーク2が検出されなかった場合(S8でNO)、ステップS6に処理が戻り、把持対象となるワーク2が検出されるまで、ステップS6からS8までの処理が繰り返される。
Next, the
このように、把持対象となるワーク2が検出されるまで、撮像および画像解析を繰り返す構成によれば、移動ロボット1は自動的に把持すべきワーク2を探して見つけ出すことができる。
In this way, according to the configuration in which imaging and image analysis are repeated until the
次に、対象物特定部23が把持対象となるワーク2を検出した場合(S5またはS8でYES)、把持動作制御部24はロボットアーム11の動作を制御し、ワーク2を把持する。把持されたワーク2は、搬送地点まで搬送される(S9)。
Next, when the
上記把持および搬送が行われている間に、撮像位置更新部22は、上記撮像画像を解析する。撮像画像にまだ搬送されていないワーク2があれば、該ワーク2を次回の把持対象とする。これにより、次回の把持動作の前のカメラ14による撮像位置を特定し、第1記憶部30に記憶された撮像位置情報を更新する(S10)。
While the gripping and transporting are performed, the imaging
次に、ステップS3に処理が戻され、ステップS10で特定された撮像位置情報に基づいて、カメラ14の位置が移動される。以降、一連の処理が改めて行われる。
Next, the process is returned to step S3, and the position of the
このような処理が行われることで、カメラ14は次回の撮像において、次回の把持対象となるワーク2を撮像することができる位置から撮像領域Aを撮像することができる。そのため、次回の把持対象となるワーク2を検出できず、再撮像(ステップS6〜S8)が必要となる可能性を低減できる。
By performing such processing, the
〔実施形態2〕
本開示の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present disclosure will be described below. For convenience of explanation, the members having the same functions as the members described in the above-described embodiment are designated by the same reference numerals, and the description thereof will not be repeated.
§1 構成例
図6は、本実施形態に係る情報処理システムを模式的に示す図である。図7は、本実施形態に係る移動ロボットの要部構成を示すブロック図である。図6および図7を用いて、本実施形態に係る移動ロボット1および情報処理システムの構成例について説明する。
§1 Configuration example FIG. 6 is a diagram schematically showing an information processing system according to the present embodiment. FIG. 7 is a block diagram showing a configuration of a main part of the mobile robot according to the present embodiment. A configuration example of the
図6および図7に示すように、本実施形態に係る移動ロボット1aは、第1通信部40を備えており、他の移動ロボット1bおよびサーバ(外部装置)60と通信可能に構成される点において、実施形態1に係る移動ロボット1と異なる。なお、移動ロボット1a・1bの符号は、異なる移動ロボットであることを明示するために付されるものであり、移動ロボット1a・1bを移動ロボット1と総称することがある。
As shown in FIGS. 6 and 7, the mobile robot 1a according to the present embodiment includes a
(第1通信部40)
第1通信部40は、後述するサーバ(外部機器)60との通信を行う。第1通信部40は、ケーブルなどを利用した優先の通信を行ってもよいし、無線通信を行ってもよい。また、第1通信部40は、別の移動ロボット1が備える第1通信部40と相互に通信を行ってもよい。
(1st communication unit 40)
The
(サーバ60)
サーバ60は、第2通信部61、情報管理制御部62および第2記憶部63を備える。情報管理制御部62は、移動ロボット1の状態変化に応じた第2記憶部63への書き込み制御(移動ロボット1の移動に応じてデータベースを更新する等)、および、第2通信部61を介した通信制御(移動ロボット1の移動に応じた情報送信等)を行う。
(Server 60)
The
サーバ60は、例えば、第2通信部61により別の移動ロボット1a(別のマニピュレータ)が生成した撮像位置情報を受信し、当該撮像位置情報を第2記憶部63に記憶する。当該撮像位置情報は、サーバ60から移動ロボット1b等に随時送信される。また、移動ロボット1aは、自ら生成し送信した撮像位置情報を、サーバ60から受信してもよい。これにより、上記撮像位置情報を複数の移動ロボット1間で共有させることができる。
For example, the
なお、複数の移動ロボット1間で共有される情報は、上記撮像位置情報に限られない。例えば、撮像位置情報として、移動ロボット1が撮像した撮像画像データが、サーバ60を介して複数の移動ロボット1間で共有されてもよい。
The information shared between the plurality of
このように、複数の移動ロボット1と、サーバ60とが相互に通信し、上記撮像位置情報の共有を行うことで、移動ロボット1が利用できる上記撮像位置情報の量は飛躍的に多くなる。移動ロボット1は、別の移動ロボット1aによる撮像画像に基づく撮像位置情報を利用することができるので、適切な位置にカメラ14を移動させて撮像できる可能性が向上する。そのため、移動ロボット1が把持対象となるワーク2を検出できず、再度撮像を行う可能性を低減できる。
By communicating with each other and sharing the imaging position information between the plurality of
§2 動作例
図8は、本実施形態に係る制御部21における処理の流れの一例を示すフローチャートである。図8を用いて、制御部21における処理の流れの一例について説明する。
§2 Operation example FIG. 8 is a flowchart showing an example of a processing flow in the
まず、撮像位置制御部25は、第1記憶部30から、把持対象となるワーク2を含む撮像領域Aに対応する撮像位置情報が取得できるか否かを判定する(S11)。上記撮像位置情報が取得できない場合(S11でNO)、制御部21は、サーバ60から、把持対象となるワーク2が載置されたストッカ3を含む撮像領域Aに対応付けられた撮像位置情報を受信する(S12)。
First, the image pickup
なお、上記撮像位置情報がサーバ60に記憶されていない場合、上記撮像位置情報が取得されるまで待機する。上記撮像位置情報の取得は、例えば、ユーザ入力によって行われてもよい。
If the imaging position information is not stored in the
次に、上記撮像位置情報が取得できた場合(S11でYES)、またはステップS12において上記撮像位置情報が受信または指定された場合、撮像位置制御部25は、上記撮像位置情報に従ってロボットアーム11の動作を制御し、カメラ14を上記撮像位置に移動させる(S13)。そして、カメラ制御部27は、カメラ14に撮像領域Aを撮像させる。撮像された撮像画像は、対象物特定部23に入力され、対象物特定部23により画像解析が行われる(S14)。
Next, when the imaging position information can be acquired (YES in S11), or when the imaging position information is received or specified in step S12, the imaging
次に、対象物特定部23は、上記画像解析により把持対象となるワーク2が検出されたか否かを判定する(S15)。ここで、把持対象となるワーク2が検出されなかった場合(S15でNO)、撮像位置制御部25は、カメラ14の位置を所定量移動させるようにロボットアーム11の動作を制御する(S16)。
Next, the
なお、上記所定量は、ワーク2の種類および配置状態等により任意の値が設定されてもよい。また、上記任意の値はユーザにより設定されてもよい。また、上記任意の値は、第1記憶部30に記憶された、撮像位置更新部22および対象物特定部23による撮像画像の解析結果に基づき、制御部21により自動的に設定および更新されてもよい。
An arbitrary value may be set for the predetermined amount depending on the type of the
次に、カメラ制御部27は、カメラ14により移動先の撮像領域Aを撮像させ、対象物特定部23は、カメラ14により撮像された撮像画像を解析する(S17)。そして、
対象物特定部23は再度、上記画像解析により把持対象となるワーク2が検出されるか否かを判定する(S18)。把持対象となるワーク2が検出されなかった場合(S18でNO)、ステップS16に処理が戻り、把持対象となるワーク2が検出されるまで、ステップS16からS18までの処理が繰り返される。
Next, the
The
また、上記撮像画像の解析結果は、第1通信部40からサーバ60に送信され、サーバ60により記憶されてもよい。そして、サーバ60において蓄積された上記解析結果を移動ロボット1が受信し、受信した上記解析結果に基づいて自動的に上記任意の値が設定および更新されてもよい。
Further, the analysis result of the captured image may be transmitted from the
次に、対象物特定部23が把持対象となるワーク2を検出した場合(S15またはS18でYES)、把持動作制御部24はロボットアーム11の動作を制御し、ワーク2を把持する。把持されたワーク2は、搬送地点まで搬送される(S19)。
Next, when the
上記把持および搬送が行われている間に、撮像位置更新部22は、上記撮像画像を解析して、次回の把持動作の前のカメラ14による撮像位置を特定し、第1記憶部30に記憶された撮像位置情報を更新する(S20)。また、撮像位置更新部22によって生成された上記撮像位置情報は、第1通信部40によってサーバ60に送信される(S21)。
While the gripping and transporting are performed, the imaging
次に、ステップS11に処理が戻される。このとき、無人搬送車50による移動が行われていない期間に、マニピュレータ10が複数のワーク2の把持動作を繰り返す場合には、撮像位置制御部25は、第1通信部40によって受信される撮像位置情報を利用せずに、撮像位置更新部22が前回の把持動作において特定した撮像位置情報を利用して、カメラ14の移動制御を行ってもよい(S11をスキップ)。
Next, the process is returned to step S11. At this time, when the
このような構成によれば、移動ロボット1が自ら生成した最新の撮像位置情報によって、次回の把持対象となるワーク2を撮像できる位置にカメラ14を移動させることができる。また、サーバ60から撮像位置情報を受信する必要がなくなる。
According to such a configuration, the
また、移動ロボット1は、次の把持対象物が載置された空間領域に対応付けられた撮像位置情報をサーバ60から受信してもよい。以降、一連の処理が改めて行われる。
Further, the
〔変形例〕
上述の実施形態1、2では、複数のワークを検出するセンサとして、カメラ(撮像部)14を用いる場合について説明した。ただしこれに限らず、所定の空間領域における複数のワークを検出するセンサ(センサ部)として、例えば、光(レーザ)によってセンシングを行うLIDAR(Light Detection and RangingまたはLaser Imaging Detection and Ranging)、または超音波によってセンシングを行う超音波センサを用いることができる。例えば、マニピュレータの制御装置は、LIDARによってセンシングすることで、所定の空間領域にある複数のワークの三次元位置の情報(センシング結果)を得てもよい。または、マニピュレータの制御装置は、超音波センサによってセンシングすることで、撮像画像に代わるセンシング画像(センシング結果)の情報を得てもよい。
[Modification example]
In the above-described first and second embodiments, the case where the camera (imaging unit) 14 is used as the sensor for detecting a plurality of workpieces has been described. However, the present invention is not limited to this, and as a sensor (sensor unit) for detecting a plurality of workpieces in a predetermined spatial region, for example, LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) that performs sensing by light (laser), or super An ultrasonic sensor that senses with sound waves can be used. For example, the control device of the manipulator may obtain information (sensing result) of three-dimensional positions of a plurality of workpieces in a predetermined spatial region by sensing with LIDAR. Alternatively, the control device of the manipulator may obtain information on a sensing image (sensing result) instead of the captured image by sensing with an ultrasonic sensor.
〔ソフトウェアによる実現例〕
制御部21の制御ブロック(特に撮像位置更新部22、対象物特定部23、および撮像位置制御部25)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control block of the control unit 21 (particularly, the image pickup
後者の場合、制御部21は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本開示の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本開示の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。 The present disclosure is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present disclosure.
1、1a、1b 移動ロボット
2、2a、2b、2c、2d、2e ワーク(対象物)
10 マニピュレータ
11 ロボットアーム
14 カメラ(撮像部、センサ部)
21 制御部
22 撮像位置更新部(センシング位置更新部)
23 対象物特定部
24 把持動作制御部
25 撮像位置制御部(センシング位置制御部)
26 無人搬送車制御部
40 第1通信部
50 無人搬送車
60 サーバ(外部装置)
61 第2通信部
A、A1、A2、A3 撮像領域(空間領域)
1,1a,
10
21
23
26 Automated guided
61 Second communication unit A, A1, A2, A3 Imaging area (spatial area)
Claims (8)
前記ロボットアームに設けられた、複数の前記対象物が載置されることが可能な所定の空間領域を光または超音波によりセンシングするセンサ部と、
前記空間領域に対応付けられたセンシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御するセンシング位置制御部と、
前記センシング位置における前記センサ部によるセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定する対象物特定部と、
前記対象物特定部によって特定された、今回の把持動作において把持すべき前記対象物を把持するように前記ロボットアームの動作を制御する把持動作制御部と、
前記センシング位置における前記センサ部によるセンシング結果を解析し、次回の把持動作の前の次回のセンシング動作のためのセンシング位置を特定し、前記センシング位置情報を更新するセンシング位置更新部と、
を備えるマニピュレータ。 A robot arm that grips an object and
A sensor unit provided on the robot arm that senses a predetermined space area on which a plurality of the objects can be placed by light or ultrasonic waves.
A sensing position control unit that controls the operation of the robot arm so as to move the sensor unit to a sensing position corresponding to the sensing position information associated with the spatial region.
An object identification unit that analyzes the sensing result by the sensor unit at the sensing position and identifies the object to be gripped in this gripping operation, and an object identification unit.
A gripping motion control unit that controls the operation of the robot arm so as to grip the object to be gripped in the current gripping motion, which is specified by the object specifying unit.
A sensing position update unit that analyzes the sensing result by the sensor unit at the sensing position, identifies the sensing position for the next sensing operation before the next gripping operation, and updates the sensing position information.
Manipulator equipped with.
前記センシング位置情報は、撮像位置情報であり、
前記センシング位置は、撮像位置であり、
前記センシング位置制御部は、前記撮像位置情報に応じた前記撮像位置に前記撮像部を移動させるように前記ロボットアームの動作を制御する撮像位置制御部であり、
前記センシング結果は、撮像画像であり、
前記センシング動作は、撮像動作であり、
前記センシング位置更新部は、前記撮像位置情報を更新する撮像位置更新部である請求項1に記載のマニピュレータ。 The sensor unit is an imaging unit that captures an image of the predetermined spatial region.
The sensing position information is imaging position information, and is
The sensing position is an imaging position.
The sensing position control unit is an imaging position control unit that controls the operation of the robot arm so as to move the imaging unit to the imaging position according to the imaging position information.
The sensing result is a captured image.
The sensing operation is an imaging operation.
The manipulator according to claim 1, wherein the sensing position updating unit is an imaging position updating unit that updates the imaging position information.
前記センシング位置制御部は、前記センサ部を所定量移動させるように前記ロボットアームの動作を制御し、
前記対象物特定部は、前記センサ部が移動後の位置で再度センシングをおこなったセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定する請求項1〜3の何れか1項に記載のマニピュレータ。 As a result of analyzing the sensing result by the object identification unit, when the object to be gripped cannot be detected in the current gripping operation,
The sensing position control unit controls the operation of the robot arm so as to move the sensor unit by a predetermined amount.
The object identification unit analyzes the sensing result of the sensor unit performing sensing again at the position after the movement, and identifies the object to be gripped in the current gripping operation, any one of claims 1 to 3. The manipulator described in the section.
前記センシング位置制御部が、前記通信部によって受信された前記センシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御する請求項5に記載のマニピュレータ。 A communication unit is further provided, which transmits the sensing position information specified by the sensing position update unit to an external device by communication, and also receives the sensing position information based on the sensing result by another manipulator from the external device.
The manipulator according to claim 5, wherein the sensing position control unit controls the operation of the robot arm so as to move the sensor unit to a sensing position corresponding to the sensing position information received by the communication unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168029A JP6958517B2 (en) | 2018-09-07 | 2018-09-07 | Manipulators and mobile robots |
PCT/JP2019/009095 WO2020049768A1 (en) | 2018-09-07 | 2019-03-07 | Manipulator and mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168029A JP6958517B2 (en) | 2018-09-07 | 2018-09-07 | Manipulators and mobile robots |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020040143A JP2020040143A (en) | 2020-03-19 |
JP6958517B2 true JP6958517B2 (en) | 2021-11-02 |
Family
ID=69722040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168029A Active JP6958517B2 (en) | 2018-09-07 | 2018-09-07 | Manipulators and mobile robots |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6958517B2 (en) |
WO (1) | WO2020049768A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113799140A (en) * | 2021-10-14 | 2021-12-17 | 友上智能科技(苏州)有限公司 | Flight vision positioning material taking method applied to composite robot |
WO2024069779A1 (en) * | 2022-09-28 | 2024-04-04 | 日本電気株式会社 | Control system, control method, and recording medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000263482A (en) * | 1999-03-17 | 2000-09-26 | Denso Corp | Attitude searching method and attitude searching device of work, and work grasping method and work grasping device by robot |
JP2001163446A (en) * | 1999-12-10 | 2001-06-19 | Murata Mach Ltd | Pickup device |
JP4199264B2 (en) * | 2006-05-29 | 2008-12-17 | ファナック株式会社 | Work picking apparatus and method |
JP4226623B2 (en) * | 2006-09-29 | 2009-02-18 | ファナック株式会社 | Work picking device |
JP6335806B2 (en) * | 2015-01-22 | 2018-05-30 | 三菱電機株式会社 | Work supply apparatus and work gripping posture calculation method |
JP6923383B2 (en) * | 2017-07-27 | 2021-08-18 | 株式会社日立物流 | Picking robot and picking system |
-
2018
- 2018-09-07 JP JP2018168029A patent/JP6958517B2/en active Active
-
2019
- 2019-03-07 WO PCT/JP2019/009095 patent/WO2020049768A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2020040143A (en) | 2020-03-19 |
WO2020049768A1 (en) | 2020-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9604365B2 (en) | Device and method of transferring articles by using robot | |
JP4226623B2 (en) | Work picking device | |
JP4665857B2 (en) | Mobile body capable of guiding arm and method for guiding arm | |
JP6958517B2 (en) | Manipulators and mobile robots | |
WO2020022302A1 (en) | Grasping device | |
KR102249176B1 (en) | Three-way communication system comprising end device, edge server controlling end device and cloud server, and operating method of the same | |
JP2016147330A (en) | Control apparatus based on object recognition | |
US20170203434A1 (en) | Robot and robot system | |
US11470259B2 (en) | Systems and methods for sampling images | |
JP4578438B2 (en) | Robot device | |
CN110856932A (en) | Interference avoidance device and robot system | |
JP5609760B2 (en) | Robot, robot operation method, and program | |
JP2006224291A (en) | Robot system | |
JP7331446B2 (en) | Control device, automatic guided vehicle, control method and control program for automatic guided vehicle | |
US20180056517A1 (en) | Robot, robot control device, and robot system | |
JP7059872B2 (en) | Mobile manipulators, mobile robots, servers, and mobile manipulator systems | |
JP2007171018A (en) | Object position recognition method and device | |
JP2021122868A (en) | Robot, control method, information processor, and program | |
JP6238629B2 (en) | Image processing method and image processing apparatus | |
WO2020100522A1 (en) | Mark detection system, signal processing circuit, computer program, and method | |
JP2015085457A (en) | Robot, robot system, and robot control device | |
JP2021058980A (en) | Production system | |
JP7153505B2 (en) | moving body | |
JP7205569B2 (en) | Robotic system, working method and pick-up method | |
WO2022107350A1 (en) | Mobile manipulator, control method for mobile manipulator, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6958517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |