JP6958517B2 - Manipulators and mobile robots - Google Patents

Manipulators and mobile robots Download PDF

Info

Publication number
JP6958517B2
JP6958517B2 JP2018168029A JP2018168029A JP6958517B2 JP 6958517 B2 JP6958517 B2 JP 6958517B2 JP 2018168029 A JP2018168029 A JP 2018168029A JP 2018168029 A JP2018168029 A JP 2018168029A JP 6958517 B2 JP6958517 B2 JP 6958517B2
Authority
JP
Japan
Prior art keywords
sensing
unit
imaging
sensing position
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018168029A
Other languages
Japanese (ja)
Other versions
JP2020040143A (en
Inventor
達也 古賀
聡庸 金井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018168029A priority Critical patent/JP6958517B2/en
Priority to PCT/JP2019/009095 priority patent/WO2020049768A1/en
Publication of JP2020040143A publication Critical patent/JP2020040143A/en
Application granted granted Critical
Publication of JP6958517B2 publication Critical patent/JP6958517B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Description

本発明は、ワークを搬送するためのマニピュレータおよび移動ロボットに関する。 The present invention relates to a manipulator and a mobile robot for transporting a work.

近年、ワークを把持して搬送する装置において、ワークを検出するためのカメラの撮像範囲を拡大させるために、カメラを移動させて撮像する方法が提案されている。その代表例として、ロボットアームの先端にカメラを取り付けたハンドアイシステムが知られている。しかしながら、カメラが移動する場合、カメラとワークとの位置関係が、上記ワークの撮像に好ましくない場合が発生する。 In recent years, in an apparatus for gripping and transporting a work, a method of moving the camera to take an image has been proposed in order to expand the imaging range of the camera for detecting the work. As a typical example, a hand-eye system in which a camera is attached to the tip of a robot arm is known. However, when the camera moves, the positional relationship between the camera and the work may not be preferable for imaging the work.

そのため、特許文献1には、無人搬送車に搭載されるロボットアームの制御方法であって、上記ロボットアームに固定された画像入力部によって2つのマークを認識し、少なくとも1つの上記マークを認識できれば、上記ロボットアームの再移動により、上記2つのマークを同時に視野領域内に捕えることができる、ロボットアームの制御方法が開示されている。 Therefore, in Patent Document 1, it is a method of controlling a robot arm mounted on an automatic guided vehicle, and if two marks can be recognized by an image input unit fixed to the robot arm and at least one of the above marks can be recognized. A method for controlling a robot arm is disclosed, in which the two marks can be simultaneously captured in the viewing area by removing the robot arm.

また、特許文献2には、ロボットアームに撮像装置が取り付けられており、上記撮像装置により、ワークを含む領域の画像を生成する。生成した上記画像において、パターンマッチングにより特徴部を特定できなかった場合に、上記ワークと上記撮像装置と照明装置との間の相対位置または相対姿勢が変わるように上記ロボットアームを動作させ、上記ワークを再び撮像し、これにより生成された画像に対し、パターンマッチングを再び行う、ワークの把持方法が開示されている。 Further, in Patent Document 2, an image pickup device is attached to the robot arm, and the image pickup device generates an image of a region including a work. In the generated image, when the feature portion cannot be specified by pattern matching, the robot arm is operated so that the relative position or posture between the work and the imaging device and the lighting device changes, and the work is operated. Is imaged again, and pattern matching is performed again on the image generated by the image, and a method of gripping the work is disclosed.

特開平11−320465号公報Japanese Unexamined Patent Publication No. 11-320465 特開2015−160264号公報Japanese Unexamined Patent Publication No. 2015-160264

上述のような従来技術は、ワークが検出できなかった場合、カメラの位置を変化させ再撮像することにより、上記ワークの検出を可能にしている。しかしながら、上記ワークを再撮像する場合、上記カメラを移動させ、再撮像および画像解析を行うための時間が余計にかかる。したがって、上記ワークの搬送作業時間が増加し、費用対効果が低減するという問題がある。 In the conventional technique as described above, when the work cannot be detected, the work can be detected by changing the position of the camera and re-imaging. However, when re-imaging the work, it takes extra time to move the camera to perform re-imaging and image analysis. Therefore, there is a problem that the transfer work time of the work is increased and the cost effectiveness is reduced.

本発明の一態様は、再センシングによる搬送作業時間の増加を抑制するために、ワークの検出成功率が向上したマニピュレータを実現することを目的とする。 One aspect of the present invention is to realize a manipulator having an improved work detection success rate in order to suppress an increase in transport work time due to resensing.

上記の課題を解決するために、本開示の一態様に係るマニピュレータは、対象物に対する把持動作を行うロボットアームと、前記ロボットアームに設けられた、複数の前記対象物が載置されることが可能な所定の空間領域を光または超音波によりセンシングするセンサ部と、前記空間領域に対応付けられたセンシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御するセンシング位置制御部と、前記センシング位置における前記センサ部によるセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定する対象物特定部と、前記対象物特定部によって特定された、今回の把持動作において把持すべき前記対象物を把持するように前記ロボットアームの動作を制御する把持動作制御部と、前記センシング位置における前記センサ部によるセンシング結果を解析し、次回の把持動作の前の次回のセンシング動作のためのセンシング位置を特定し、前記センシング位置情報を更新するセンシング位置更新部と、を備える。 In order to solve the above problems, the manipulator according to one aspect of the present disclosure may include a robot arm that grips an object and a plurality of the objects provided on the robot arm. The operation of the robot arm is controlled so as to move the sensor unit that senses a possible predetermined space region by light or ultrasonic waves and the sensor unit to a sensing position corresponding to the sensing position information associated with the space region. The sensing result of the sensing position control unit and the sensor unit at the sensing position are analyzed, and the object identification unit that identifies the object to be gripped in this gripping operation and the object identification unit identify the object. The gripping motion control unit that controls the motion of the robot arm so as to grip the object to be gripped in the current gripping motion and the sensor unit at the sensing position are analyzed, and the next gripping motion is performed. It is provided with a sensing position updating unit that specifies a sensing position for the previous next sensing operation and updates the sensing position information.

上記の構成によれば、センサ部がセンシングしたセンシング結果に基づいて、今回の把持動作において把持すべき対象物が特定されるため、ロボットアームにより把持すべき対象物を把持および搬送できる。また、次回のセンシングにおいて、センサ部は、次回の把持対象となる対象物をセンシングすることができる位置に移動してセンシングすることができる。そのため、次回の把持対象となる対象物を検出できず、再センシングが必要となる可能性を低減できる。 According to the above configuration, since the object to be gripped in the current gripping operation is specified based on the sensing result sensed by the sensor unit, the object to be gripped by the robot arm can be gripped and conveyed. Further, in the next sensing, the sensor unit can move to a position where the object to be gripped next time can be sensed and sense the object. Therefore, it is possible to reduce the possibility that the object to be gripped next time cannot be detected and resensing is required.

なお、今回のセンシング位置と次回のセンシング位置とは互いに異なる。そのため、次回のセンシング結果に新たな(次々回の)把持対象となる対象物が含まれる可能性が高くなる。それゆえ、次々と把持対象となる対象物を検出し、対象物の位置を特定することができる。 The current sensing position and the next sensing position are different from each other. Therefore, there is a high possibility that the next sensing result will include a new (one after another) object to be gripped. Therefore, it is possible to detect the object to be gripped one after another and specify the position of the object.

前記センサ部は、前記所定の空間領域を撮像する撮像部であり、前記センシング位置情報は、撮像位置情報であり、前記センシング位置は、撮像位置であり、前記センシング位置制御部は、前記撮像位置情報に応じた前記撮像位置に前記撮像部を移動させるように前記ロボットアームの動作を制御する撮像位置制御部であり、前記センシング結果は、撮像画像であり、前記センシング動作は、撮像動作であり、前記センシング位置更新部は、前記撮像位置情報を更新する撮像位置更新部である構成であってもよい。 The sensor unit is an imaging unit that captures an image of the predetermined spatial region, the sensing position information is imaging position information, the sensing position is an imaging position, and the sensing position control unit is the imaging position. It is an imaging position control unit that controls the operation of the robot arm so as to move the imaging unit to the imaging position according to the information, the sensing result is an image captured image, and the sensing operation is an imaging operation. The sensing position update unit may be configured to be an image pickup position update unit that updates the image pickup position information.

前記センシング位置更新部は、前記センシング位置における前記センサ部によるセンシング結果を解析し、次回の把持動作において把持すべき前記対象物の位置に基づいて前記センシング位置情報を更新してもよい。 The sensing position update unit may analyze the sensing result by the sensor unit at the sensing position and update the sensing position information based on the position of the object to be gripped in the next gripping operation.

上記の構成によれば、より確実に、次回の把持動作において把持すべき対象物を検出できるようなセンシング結果を得ることができる。そのため、次回の把持対象となる対象物を検出できず、再センシングが必要となる可能性をより低減できる。 According to the above configuration, it is possible to obtain a sensing result that can more reliably detect an object to be gripped in the next gripping operation. Therefore, it is possible to further reduce the possibility that the object to be gripped next time cannot be detected and resensing is required.

前記対象物特定部が前記センシング結果を解析した結果、今回の把持動作において把持すべき前記対象物が検出できない場合に、前記センシング位置制御部は、前記センサ部を所定量移動させるように前記ロボットアームの動作を制御し、前記対象物特定部は、前記センサ部が移動後の位置で再度センシングをおこなったセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定してもよい。 As a result of analyzing the sensing result by the object identification unit, when the object to be gripped cannot be detected in the current gripping operation, the sensing position control unit moves the sensor unit by a predetermined amount. Even if the movement of the arm is controlled, the object identification unit analyzes the sensing result of the sensor unit performing sensing again at the position after movement, and identifies the object to be gripped in this gripping operation. good.

上記の構成によれば、センサ部によってセンシングされたセンシング結果に把持すべき対象物が検出できない場合でも、マニピュレータは自動的に把持すべき対象物を探して見つけ出すことができる。 According to the above configuration, even if the object to be gripped cannot be detected in the sensing result sensed by the sensor unit, the manipulator can automatically search for and find the object to be gripped.

上述の何れかのマニピュレータは、無人搬送車に載置されてもよい。 Any of the above-mentioned manipulators may be mounted on an automatic guided vehicle.

上記の課題を解決するために、本開示の一態様に係る移動ロボットは、上述の何れかのマニピュレータと、前記マニピュレータを載置する無人搬送車とを備える。 In order to solve the above problems, the mobile robot according to one aspect of the present disclosure includes any of the above-mentioned manipulators and an automatic guided vehicle on which the manipulators are mounted.

上記の構成によれば、マニピュレータを無人搬送車により移動させることができる。 According to the above configuration, the manipulator can be moved by an automatic guided vehicle.

前記センシング位置更新部が特定したセンシング位置情報を、通信によって外部装置に送信するとともに、前記外部装置から別のマニピュレータによるセンシング結果に基づくセンシング位置情報を受信する通信部をさらに備え、前記センシング位置制御部が、前記通信部によって受信された前記センシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御してもよい。 The sensing position control is further provided with a communication unit that transmits the sensing position information specified by the sensing position update unit to an external device by communication and receives the sensing position information based on the sensing result by another manipulator from the external device. The operation of the robot arm may be controlled so that the unit moves the sensor unit to a sensing position corresponding to the sensing position information received by the communication unit.

上記の構成によれば、複数のマニピュレータと、外部装置とが相互に通信し、センシング位置情報の共有を行うことで、マニピュレータが利用できるセンシング位置情報の量は飛躍的に多くなる。これにより、適切な位置にセンサ部を移動させてセンシングできる可能性が向上し、把持対象となる対象物を検出できる可能性が向上する。そのため、マニピュレータが把持対象となる対象物を検出できず、再度センシングを行う可能性を低減できる。 According to the above configuration, the amount of sensing position information that can be used by the manipulator is dramatically increased by communicating with each other and sharing the sensing position information between the plurality of manipulators and the external device. As a result, the possibility of moving the sensor unit to an appropriate position for sensing is improved, and the possibility of detecting an object to be gripped is improved. Therefore, the manipulator cannot detect the object to be gripped, and the possibility of performing sensing again can be reduced.

なお、上記外部装置は、後述するサーバでもよいし、他のマニピュレータでもよい。上記外部装置が他のマニピュレータである場合、特定のマニピュレータがサーバ機能を有していてもよいし、複数のマニピュレータの間で上記センシング位置情報を相互に送受信してもよい。 The external device may be a server described later or another manipulator. When the external device is another manipulator, the specific manipulator may have a server function, or the sensing position information may be transmitted and received between a plurality of manipulators.

前記無人搬送車による移動が行われていない期間に複数の前記対象物の把持動作を繰り返す場合に、前記センシング位置制御部は、前記通信部によって受信される前記センシング位置情報を利用せずに、前記センシング位置更新部が前回の把持動作において特定したセンシング位置情報を利用して、前記センサ部の移動制御を行ってもよい。 When the gripping operation of the plurality of objects is repeated during the period when the automatic guided vehicle is not moving, the sensing position control unit does not use the sensing position information received by the communication unit. The movement control of the sensor unit may be performed by using the sensing position information specified by the sensing position updating unit in the previous gripping operation.

上記の構成によれば、マニピュレータが自ら生成した最新のセンシング位置情報によって、センサ部を、次回の把持対象となる対象物をセンシングできる位置に移動させることができる。また、外部装置からセンシング位置情報を受信する必要がなくなる。 According to the above configuration, the sensor unit can be moved to a position where the object to be gripped next time can be sensed by the latest sensing position information generated by the manipulator itself. Further, it is not necessary to receive the sensing position information from the external device.

本開示の一態様によれば、再センシングによる搬送作業時間の増加を抑制するために、対象物の検出成功率が向上したマニピュレータを実現できる。 According to one aspect of the present disclosure, it is possible to realize a manipulator having an improved detection success rate of an object in order to suppress an increase in transport work time due to resensing.

実施形態1に係る移動ロボットを模式的に示す図である。It is a figure which shows typically the mobile robot which concerns on Embodiment 1. 実施形態1に係る移動ロボットの要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the mobile robot which concerns on Embodiment 1. FIG. 実施形態1に係るカメラにより撮像される撮像領域であって、(a)〜(c)は、それぞれ1〜3回目のワーク搬送前の撮像領域を模式的に示す図である。The imaging regions imaged by the camera according to the first embodiment, (a) to (c), are diagrams schematically showing the imaging regions before the first to third workpiece transfer, respectively. 実施形態1に係るカメラの撮像領域を模式的に示す図である。It is a figure which shows typically the imaging area of the camera which concerns on Embodiment 1. FIG. 実施形態1に係る制御部における処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow in the control part which concerns on Embodiment 1. FIG. 実施形態2に係る情報処理システムを模式的に示す図である。It is a figure which shows typically the information processing system which concerns on Embodiment 2. 実施形態2に係る移動ロボットの要部構成を示すブロック図である。It is a block diagram which shows the main part structure of the mobile robot which concerns on Embodiment 2. 実施形態2に係る制御部における処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow in the control part which concerns on Embodiment 2.

〔実施形態1〕
以下、本発明の一側面に係る実施形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。
[Embodiment 1]
Hereinafter, an embodiment according to one aspect of the present invention (hereinafter, also referred to as “the present embodiment”) will be described with reference to the drawings.

§1 適用例
図1は、本実施形態に係る移動ロボット1を模式的に例示する。図2は、本実施形態に係る移動ロボット1の要部構成を例示するブロック図である。図3は、本実施形態に係るカメラ(撮像部)14により撮像される撮像領域であって、図3の(a)〜(c)は、それぞれ1〜3回目のワーク搬送前の撮像領域を模式的に示す図である。はじめに、図1〜図3を用いて、移動ロボット1の適用例の概要を説明する。
§1 Application example FIG. 1 schematically illustrates the mobile robot 1 according to the present embodiment. FIG. 2 is a block diagram illustrating a configuration of a main part of the mobile robot 1 according to the present embodiment. FIG. 3 shows an imaging region imaged by the camera (imaging unit) 14 according to the present embodiment, and FIGS. 3A to 3C are imaging regions before the first to third workpiece transfer, respectively. It is a figure which shows typically. First, an outline of an application example of the mobile robot 1 will be described with reference to FIGS. 1 to 3.

図1および図2に示すように、移動ロボット1は、ワーク(対象物)2を搬送するための装置である。移動ロボット1は、マニピュレータ10および無人搬送車50を備える。マニピュレータ10は、ロボットアーム11および筐体部15を備える。マニピュレータ10は、移動可能な無人搬送車50ではなく、固定台等に固定して載置されていてもよい。 As shown in FIGS. 1 and 2, the mobile robot 1 is a device for transporting a work (object) 2. The mobile robot 1 includes a manipulator 10 and an automatic guided vehicle 50. The manipulator 10 includes a robot arm 11 and a housing portion 15. The manipulator 10 may be fixedly mounted on a fixed base or the like instead of the movable automatic guided vehicle 50.

ロボットアーム11は、ワーク2に対する把持動作を行う部材である。ロボットアーム11は、その一端に、ワーク2を把持するためのワーク把持部13と、カメラ14とを備える。 The robot arm 11 is a member that performs a gripping operation on the work 2. The robot arm 11 includes a work gripping portion 13 for gripping the work 2 and a camera 14 at one end thereof.

筐体部15は、制御装置20を備える。カメラ14は、複数のワーク2が載置されることが可能なストッカ3を含む撮像領域(空間領域)を撮像する。 The housing portion 15 includes a control device 20. The camera 14 captures an imaging region (spatial region) including a stocker 3 on which a plurality of works 2 can be placed.

図2に示すように、制御装置20は、制御部21および第1記憶部30を備える。制御部21は、撮像位置更新部22、対象物特定部23、把持動作制御部24、撮像位置制御部25、無人搬送車制御部26、およびカメラ制御部27を備える。 As shown in FIG. 2, the control device 20 includes a control unit 21 and a first storage unit 30. The control unit 21 includes an image pickup position update unit 22, an object identification unit 23, a gripping operation control unit 24, an image pickup position control unit 25, an automatic guided vehicle control unit 26, and a camera control unit 27.

撮像位置制御部25(センシング位置制御部)は、上記撮像領域に対応付けられた撮像位置情報(センシング位置情報)に応じた撮像位置(センシング位置)にカメラ14を移動させるように、ロボットアーム11の動作を制御する。ここで、上記撮像位置情報は、ユーザにより指定または更新されてもよく、後述するように撮像位置更新部22(センシング位置更新部)により更新されてもよい。 The imaging position control unit 25 (sensing position control unit) moves the camera 14 to the imaging position (sensing position) according to the imaging position information (sensing position information) associated with the imaging region, so that the robot arm 11 moves the camera 14. Control the operation of. Here, the imaging position information may be specified or updated by the user, or may be updated by the imaging position updating unit 22 (sensing position updating unit) as described later.

対象物特定部23は、上記撮像位置におけるカメラ14による撮像画像(センシング結果)を解析し、今回の把持動作において把持すべきワーク2を特定する。また、撮像位置更新部22は、上記撮像画像を解析し、次回の把持動作の前のカメラ14による上記撮像位置を特定し、前記撮像位置情報を更新する。ここで、「次回」の把持動作とは、対象物特定部23が特定したワーク2が把持され搬送された後に、連続して別のワーク2が搬送される場合の、当該別のワーク2に対する把持動作を示す。 The object identification unit 23 analyzes the image (sensing result) captured by the camera 14 at the imaging position, and identifies the work 2 to be gripped in the current gripping operation. Further, the imaging position updating unit 22 analyzes the captured image, identifies the imaging position by the camera 14 before the next gripping operation, and updates the imaging position information. Here, the “next” gripping operation refers to the case where another work 2 is continuously transported after the work 2 specified by the object specifying unit 23 is gripped and transported, with respect to the other work 2. The gripping operation is shown.

把持動作制御部24は、対象物特定部23によって特定された今回の把持動作において把持すべきワーク2を把持するように、ロボットアーム11の動作を制御する。 The gripping motion control unit 24 controls the motion of the robot arm 11 so as to grip the work 2 to be gripped in the current gripping motion specified by the object identification unit 23.

図3を用いて、移動ロボット1の動作の概要を説明する。図3の(a)に示すように、カメラ14は、上記撮像位置情報に基づき、ストッカ3を含む撮像領域A1を撮像する。撮像された撮像画像は対象物特定部23によって解析され、把持すべきワーク2aが特定される。 The outline of the operation of the mobile robot 1 will be described with reference to FIG. As shown in FIG. 3A, the camera 14 images the imaging region A1 including the stocker 3 based on the imaging position information. The captured image is analyzed by the object identification unit 23, and the work 2a to be gripped is specified.

このとき、撮像位置更新部22は、上記撮像画像を解析し、次回の撮像位置を特定する。例えば、撮像位置更新部22は、次回の撮像画像の所定範囲に次回の把持対象となるワーク2bが含まれるよう、次回の撮像位置を特定してもよい。上記次回の撮像位置は、次回の把持対象となるワーク2bが撮像範囲の略中心となるように撮像されるような位置であってもよい。このように、撮像位置更新部22は、撮像位置を特定し第1記憶部30に記憶される撮像位置情報を更新する。 At this time, the imaging position updating unit 22 analyzes the captured image and specifies the next imaging position. For example, the imaging position updating unit 22 may specify the next imaging position so that the work 2b to be gripped next time is included in the predetermined range of the next captured image. The next imaging position may be a position where the work 2b to be gripped next time is imaged so as to be substantially the center of the imaging range. In this way, the imaging position updating unit 22 identifies the imaging position and updates the imaging position information stored in the first storage unit 30.

撮像位置更新部22が次回の撮像位置を特定する構成によれば、次回の撮像において、カメラ14はワーク2bを撮像することができる位置から、ストッカ3を含む撮像領域を撮像することができる。そのため、次回の把持対象となるワークを検出できず、再撮像が必要となる可能性を低減できる。 According to the configuration in which the imaging position updating unit 22 specifies the next imaging position, the camera 14 can image the imaging region including the stocker 3 from the position where the work 2b can be imaged in the next imaging. Therefore, it is possible to reduce the possibility that the work to be gripped next time cannot be detected and reimaging is required.

また、上記撮像位置として、ワーク2bが略中心となるような撮像位置が特定される構成によれば、より確実にワーク2bを検出できるような撮像画像を得ることができる。そのため、次回の把持対象となるワーク2bを検出できず、再撮像が必要となる可能性をより低減できる。 Further, according to the configuration in which the imaging position in which the work 2b is substantially centered is specified as the imaging position, an captured image capable of detecting the work 2b more reliably can be obtained. Therefore, the possibility that the work 2b to be gripped next time cannot be detected and reimaging is required can be further reduced.

次に、図3の(b)に示すように、更新された撮像位置情報に基づき、カメラ14により撮像領域A2が撮像される。ここでも、対象物特定部23は撮像画像を解析してワーク2bを把持対象として特定し、撮像位置更新部22は撮像画像を解析して次回の把持対象となるワーク2cの位置に基づき撮像位置情報を更新する。このように、前回の撮像位置と今回の撮像位置とが互いに異なると、今回の撮像画像に新たな(次回の)把持対象となる対象物(ワーク2c)が含まれる可能性が高くなる。それゆえ、次々と把持対象となる対象物を検出し、対象物の位置を特定することができる。 Next, as shown in FIG. 3B, the image pickup region A2 is imaged by the camera 14 based on the updated image pickup position information. Here, too, the object identification unit 23 analyzes the captured image and identifies the work 2b as the gripping target, and the imaging position updating unit 22 analyzes the captured image and the imaging position is based on the position of the work 2c to be the next gripping target. Update the information. In this way, if the previous imaging position and the current imaging position are different from each other, there is a high possibility that the current captured image includes a new (next) object to be gripped (work 2c). Therefore, it is possible to detect the object to be gripped one after another and specify the position of the object.

次に、図3の(c)に示すように、更新された撮像位置情報に基づき、カメラ14により撮像領域A3が撮像される。ここで、対象物特定部23はワーク2cを把持対象として特定するが、撮像領域A3には他のワーク2が明確に含まれていないため、撮像位置更新部22は、次回の把持対象となるワーク2を検出できない。 Next, as shown in FIG. 3C, the image pickup region A3 is imaged by the camera 14 based on the updated image pickup position information. Here, the object specifying unit 23 specifies the work 2c as a gripping target, but since the imaging region A3 does not clearly include the other work 2, the imaging position updating unit 22 becomes the next gripping target. Work 2 cannot be detected.

この場合、撮像位置更新部22は、第1記憶部30に記憶された過去の撮像画像の解析結果を参照してもよい。例えば、撮像位置更新部22は、撮像領域A1が撮像された撮像画像を解析して未把持のワーク2dを次回の把持対象として特定し、ワーク2dが撮像範囲の略中心となるように撮像位置情報を更新してもよい。 In this case, the imaging position updating unit 22 may refer to the analysis result of the past captured image stored in the first storage unit 30. For example, the imaging position updating unit 22 analyzes the captured image captured by the imaging region A1 to identify the ungrasped work 2d as the next gripping target, and the imaging position so that the work 2d is substantially the center of the imaging range. The information may be updated.

このような構成によれば、次回の把持対象となるワーク2を検出できる可能性がより高くなる。そのため、次回の把持対象となるワーク2を検出できず、再撮像が必要となる可能性を低減できる。 With such a configuration, there is a higher possibility that the work 2 to be gripped next time can be detected. Therefore, it is possible to reduce the possibility that the work 2 to be gripped next time cannot be detected and reimaging is required.

§2 構成例
(ロボットアーム11)
ロボットアーム11は、任意の方向に回転および屈曲可能に形成される関節部12を備える。ロボットアーム11が備える関節部12は、1つでもよく、複数でもよい。また、ロボットアーム11の一端は、筐体部15に、回転および屈曲可能な状態により取り付けられるように形成されている。
§2 Configuration example (robot arm 11)
The robot arm 11 includes a joint portion 12 formed so as to be rotatable and flexible in an arbitrary direction. The number of joints 12 included in the robot arm 11 may be one or a plurality. Further, one end of the robot arm 11 is formed so as to be attached to the housing portion 15 in a rotatable and bendable state.

ワーク把持部13は、ワーク2を真空吸着可能なバキュームパッドを備える。なお、ワーク把持部13はこれに限られず、例えば、ワーク2を挟んで把持するための1対の爪部を備えていてもよい。 The work gripping portion 13 includes a vacuum pad capable of vacuum-sucking the work 2. The work gripping portion 13 is not limited to this, and may include, for example, a pair of claw portions for gripping the work 2 by sandwiching it.

カメラ14は、撮像対象を3次元的に認識可能な固体撮像素子およびレンズを備える。上記固体撮像素子は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等が用いられてもよい。このような構成によれば、把持対象となるワーク2の空間的位置を正確に把握することができる。なお、カメラ14はこのような例に限られず、例えば、2次元画像の撮像のみ可能な固体撮像素子およびレンズを備えていてもよい。 The camera 14 includes a solid-state image sensor and a lens capable of three-dimensionally recognizing an image pickup target. As the solid-state image sensor, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor or the like may be used. With such a configuration, the spatial position of the work 2 to be gripped can be accurately grasped. The camera 14 is not limited to such an example, and may include, for example, a solid-state image sensor and a lens capable of only capturing a two-dimensional image.

また、カメラ14は、ワーク把持部13を備えるロボットアーム11ではなく、カメラ14専用のロボットアームに備えられていてもよい。このような構成によれば、ワーク2の搬送と、カメラ14による撮像動作を独立して行うことができる。 Further, the camera 14 may be provided not on the robot arm 11 provided with the work gripping portion 13, but on the robot arm dedicated to the camera 14. According to such a configuration, the transfer of the work 2 and the image pickup operation by the camera 14 can be performed independently.

カメラ14が撮像した撮像情報は、制御装置20に入力される。また、上記撮像情報は第1記憶部30に入力され、記憶されてもよい。 The imaging information captured by the camera 14 is input to the control device 20. Further, the imaging information may be input to and stored in the first storage unit 30.

(制御装置20)
制御装置20が備える制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、各構成要素を制御する。第1記憶部30は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部21で実行される各種プログラム並びに、カメラ14により撮像された撮像画像データおよび撮像位置情報等を記憶する。
(Control device 20)
The control unit 21 included in the control device 20 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and controls each component. The first storage unit 30 is, for example, an auxiliary storage device such as a hard disk drive or a solid state drive, and stores various programs executed by the control unit 21, captured image data captured by the camera 14, image pickup position information, and the like. do.

撮像位置更新部22および対象物特定部23は、撮像画像におけるそれぞれの解析結果について、第1記憶部30に出力し、第1記憶部30は当該解析結果を記憶してもよい。また、記憶された上記解析結果は、適宜制御部21に読み出されてもよい。 The image pickup position update unit 22 and the object identification unit 23 may output each analysis result in the captured image to the first storage unit 30, and the first storage unit 30 may store the analysis result. Further, the stored analysis result may be appropriately read out by the control unit 21.

また、撮像位置更新部22および対象物特定部23により解析される撮像画像は、過去にカメラ14に撮像され、第1記憶部30に記憶された撮像画像であってもよい。このような構成によれば、撮像位置更新部22および対象物特定部23が過去の撮像画像を参照することで、把持対象であるワーク2を検出できる可能性がより向上し、再撮像を抑制することができる。 Further, the captured image analyzed by the imaging position updating unit 22 and the object identification unit 23 may be an captured image captured by the camera 14 in the past and stored in the first storage unit 30. According to such a configuration, the possibility that the image pickup position update unit 22 and the object identification unit 23 can detect the work 2 to be gripped by referring to the past captured image is further improved, and re-imaging is suppressed. can do.

無人搬送車制御部26は、無人搬送車50の動作を制御し、移動ロボット1を所定の地点に移動させる。また、無人搬送車制御部26は、上記撮像位置情報等に基づいて無人搬送車50の動作を制御し、移動ロボット1の位置を微調整してもよい。 The automatic guided vehicle control unit 26 controls the operation of the automatic guided vehicle 50 and moves the mobile robot 1 to a predetermined point. Further, the automatic guided vehicle control unit 26 may control the operation of the automatic guided vehicle 50 based on the imaging position information and the like, and finely adjust the position of the mobile robot 1.

カメラ制御部27は、カメラ14の撮像動作(センシング動作)を制御する。 The camera control unit 27 controls the imaging operation (sensing operation) of the camera 14.

(無人搬送車50)
無人搬送車50は、ホイール51を備える。ホイール51の動作が無人搬送車制御部26により制御されることで、無人搬送車50は、任意の地点に移動することができる。そのため、無人搬送車50に載置されるマニピュレータ10は、ロボットアーム11が届かない距離にある、離れた位置にワーク2を搬送することができる。また、マニピュレータ10が作業する地点を適宜変更することができる。
(Automated guided vehicle 50)
The automatic guided vehicle 50 includes wheels 51. By controlling the operation of the wheel 51 by the automatic guided vehicle control unit 26, the automatic guided vehicle 50 can move to an arbitrary point. Therefore, the manipulator 10 mounted on the automatic guided vehicle 50 can transport the work 2 to a distant position at a distance that the robot arm 11 cannot reach. In addition, the work point of the manipulator 10 can be changed as appropriate.

なお、マニピュレータ10が、移動可能な移動ロボット1として構成されるために載置されるのは、無人搬送車50に限られない。例えば、飛行可能な無人航空機(ドローン)であってもよいし、手動により移動される台車等であってもよい。 The manipulator 10 is not limited to the automatic guided vehicle 50 because it is configured as a movable mobile robot 1. For example, it may be an unmanned aerial vehicle (drone) that can fly, or it may be a trolley that is manually moved.

§3 動作例
(カメラ14の移動)
図4は、本実施形態に係るカメラ14の撮像領域Aを模式的に例示する。まず、図4を用いてカメラ14が移動可能に備えられる意義について説明する。
§3 Operation example (movement of camera 14)
FIG. 4 schematically illustrates an imaging region A of the camera 14 according to the present embodiment. First, the significance of the camera 14 being movable will be described with reference to FIG.

図4に示すように、移動ロボット1が備えるカメラ14は、例えば、複数のワーク2が載置されているストッカ3を撮像領域Aとして撮像する。なお、ストッカ3は、シェルフ4等に載置されることで、立体的に複数備えられていてもよい。 As shown in FIG. 4, the camera 14 included in the mobile robot 1 captures, for example, a stocker 3 on which a plurality of works 2 are placed as an imaging region A. A plurality of stockers 3 may be provided three-dimensionally by being placed on a shelf 4 or the like.

この場合、移動ロボット1は、ロボットアーム11の動作および無人搬送車50の移動によってカメラ14の位置を調整することで、任意のストッカ3を撮像領域Aに含めることができる。 In this case, the mobile robot 1 can include an arbitrary stocker 3 in the imaging region A by adjusting the position of the camera 14 by the operation of the robot arm 11 and the movement of the automatic guided vehicle 50.

しかし、図4に示すように、撮像領域A内に入っていても、ストッカ3の側壁に遮られる範囲、および、カメラ14から見て手前側に載置されたワーク2に遮られる範囲等は、カメラ14から死角となる。そのため、カメラ14により撮像された撮像画像には含まれないワーク2が、ストッカ3内に存在し得る。 However, as shown in FIG. 4, even if the camera is inside the imaging region A, the range blocked by the side wall of the stocker 3 and the range blocked by the work 2 placed on the front side when viewed from the camera 14 are not included. , It becomes a blind spot from the camera 14. Therefore, the work 2 that is not included in the captured image captured by the camera 14 may exist in the stocker 3.

このような問題を解決するために、カメラ14が移動することができるように、例えば、ロボットアーム11の一端にカメラ14が備えられる。これにより、カメラ14の位置および方向が任意に調節可能となり、ストッカ3を様々な方向から撮像することで、上記死角を最小限にできる。 In order to solve such a problem, for example, a camera 14 is provided at one end of the robot arm 11 so that the camera 14 can move. As a result, the position and direction of the camera 14 can be arbitrarily adjusted, and the blind spot can be minimized by photographing the stocker 3 from various directions.

一方、カメラ14がワーク2を最適に撮像できる撮像位置を特定するためには、例えば、予めカメラ14が撮像した撮像画像の画像解析を行うなどによって、上記撮像位置を特定する必要がある。しかし、カメラ14による撮像および上記撮像画像の画像解析処理は一定の時間を要するため、撮像回数が多くなると移動ロボット1の作業時間が増加する。 On the other hand, in order to specify the imaging position where the camera 14 can optimally image the work 2, it is necessary to specify the imaging position, for example, by performing image analysis of the captured image captured by the camera 14 in advance. However, since the imaging by the camera 14 and the image analysis processing of the captured image require a certain amount of time, the working time of the mobile robot 1 increases as the number of imaging times increases.

そこで発明者は、鋭意検討の結果、ワーク2の検出成功率を向上させることで撮像回数を抑制し、上記遅延を招来しにくいように動作するマニピュレータ10および、このようなマニピュレータ10を備える移動ロボット1を見出した。 Therefore, as a result of diligent studies, the inventor has determined the number of imaging times by improving the detection success rate of the work 2, and operates the manipulator 10 so as not to cause the delay, and the mobile robot provided with such a manipulator 10. I found 1.

(制御部21の処理の流れ)
図5は、本実施形態に係る制御部21における処理の流れの一例を示すフローチャートである。図5を用いて、制御部21における処理の流れの一例について説明する。
(Processing flow of control unit 21)
FIG. 5 is a flowchart showing an example of a processing flow in the control unit 21 according to the present embodiment. An example of the processing flow in the control unit 21 will be described with reference to FIG.

まず、撮像位置制御部25は、第1記憶部30から、把持対象となるワーク2を含む撮像領域Aに対応する撮像位置情報が取得できるか否かを判定する(S1)。上記撮像位置情報が取得できない場合(S1でNO)、制御部21は、ユーザが入力しておくなどしてあらかじめ第1記憶部30に設定された標準値を撮像位置情報として取得する(S2)。 First, the imaging position control unit 25 determines whether or not the imaging position information corresponding to the imaging region A including the work 2 to be gripped can be acquired from the first storage unit 30 (S1). When the imaging position information cannot be acquired (NO in S1), the control unit 21 acquires a standard value set in advance in the first storage unit 30 as the imaging position information by inputting the user (S2). ..

次に、上記撮像位置情報が取得できた場合(S1でYES)、またはステップS2において上記撮像位置情報が指定された場合、撮像位置制御部25は、上記撮像位置情報に基づいてロボットアーム11の動作を制御し、カメラ14を上記撮像位置に移動させる(S3)。そして、カメラ制御部27は、カメラ14に撮像領域Aを撮像させる。撮像された撮像画像は、対象物特定部23に入力され、対象物特定部23により画像解析が行われる(S4)。 Next, when the imaging position information can be acquired (YES in S1), or when the imaging position information is specified in step S2, the imaging position control unit 25 of the robot arm 11 based on the imaging position information. The operation is controlled to move the camera 14 to the imaging position (S3). Then, the camera control unit 27 causes the camera 14 to take an image of the image pickup region A. The captured image is input to the object identification unit 23, and the image analysis is performed by the object identification unit 23 (S4).

次に、対象物特定部23は、上記画像解析により把持対象となるワーク2が検出されたか否かを判定する(S5)。ここで、把持対象となるワーク2が検出されなかった場合(S5でNO)、撮像位置制御部25は、カメラ14の位置を所定量移動させるようにロボットアーム11の動作を制御する(S6)。 Next, the object identification unit 23 determines whether or not the work 2 to be gripped is detected by the image analysis (S5). Here, when the work 2 to be gripped is not detected (NO in S5), the imaging position control unit 25 controls the operation of the robot arm 11 so as to move the position of the camera 14 by a predetermined amount (S6). ..

なお、上記所定量として、ワーク2の種類および配置状態等により任意の値が設定されてもよい。また、上記任意の値の設定はユーザにより設定されてもよい。また、第1記憶部30に記憶された、撮像位置更新部22および対象物特定部23による撮像画像の解析結果に基づき、制御部21により自動的に設定および更新されてもよい。 As the predetermined amount, an arbitrary value may be set depending on the type of the work 2 and the arrangement state. Further, the setting of the above arbitrary value may be set by the user. Further, the control unit 21 may automatically set and update the image based on the analysis result of the image captured by the image pickup position update unit 22 and the object identification unit 23 stored in the first storage unit 30.

次に、カメラ制御部27は、カメラ14により移動後における撮像領域Aを撮像させ、対象物特定部23は、カメラ14により撮像された撮像画像を解析する(S7)。そして、対象物特定部23は再度、上記画像解析により把持対象となるワーク2が検出されるか否かを判定する(S8)。把持対象となるワーク2が検出されなかった場合(S8でNO)、ステップS6に処理が戻り、把持対象となるワーク2が検出されるまで、ステップS6からS8までの処理が繰り返される。 Next, the camera control unit 27 causes the camera 14 to image the image pickup region A after the movement, and the object identification unit 23 analyzes the image captured by the camera 14 (S7). Then, the object identification unit 23 again determines whether or not the work 2 to be gripped is detected by the image analysis (S8). If the work 2 to be gripped is not detected (NO in S8), the process returns to step S6, and the processes from steps S6 to S8 are repeated until the work 2 to be gripped is detected.

このように、把持対象となるワーク2が検出されるまで、撮像および画像解析を繰り返す構成によれば、移動ロボット1は自動的に把持すべきワーク2を探して見つけ出すことができる。 In this way, according to the configuration in which imaging and image analysis are repeated until the work 2 to be gripped is detected, the mobile robot 1 can automatically search for and find the work 2 to be gripped.

次に、対象物特定部23が把持対象となるワーク2を検出した場合(S5またはS8でYES)、把持動作制御部24はロボットアーム11の動作を制御し、ワーク2を把持する。把持されたワーク2は、搬送地点まで搬送される(S9)。 Next, when the object identification unit 23 detects the work 2 to be gripped (YES in S5 or S8), the gripping motion control unit 24 controls the motion of the robot arm 11 to grip the work 2. The gripped work 2 is transported to the transport point (S9).

上記把持および搬送が行われている間に、撮像位置更新部22は、上記撮像画像を解析する。撮像画像にまだ搬送されていないワーク2があれば、該ワーク2を次回の把持対象とする。これにより、次回の把持動作の前のカメラ14による撮像位置を特定し、第1記憶部30に記憶された撮像位置情報を更新する(S10)。 While the gripping and transporting are performed, the imaging position updating unit 22 analyzes the captured image. If there is a work 2 that has not yet been conveyed in the captured image, the work 2 is used as the next gripping target. As a result, the image pickup position by the camera 14 before the next gripping operation is specified, and the image pickup position information stored in the first storage unit 30 is updated (S10).

次に、ステップS3に処理が戻され、ステップS10で特定された撮像位置情報に基づいて、カメラ14の位置が移動される。以降、一連の処理が改めて行われる。 Next, the process is returned to step S3, and the position of the camera 14 is moved based on the imaging position information specified in step S10. After that, a series of processes are performed again.

このような処理が行われることで、カメラ14は次回の撮像において、次回の把持対象となるワーク2を撮像することができる位置から撮像領域Aを撮像することができる。そのため、次回の把持対象となるワーク2を検出できず、再撮像(ステップS6〜S8)が必要となる可能性を低減できる。 By performing such processing, the camera 14 can image the imaging region A from a position where the work 2 to be gripped next time can be imaged in the next imaging. Therefore, it is possible to reduce the possibility that the work 2 to be gripped next time cannot be detected and reimaging (steps S6 to S8) is required.

〔実施形態2〕
本開示の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present disclosure will be described below. For convenience of explanation, the members having the same functions as the members described in the above-described embodiment are designated by the same reference numerals, and the description thereof will not be repeated.

§1 構成例
図6は、本実施形態に係る情報処理システムを模式的に示す図である。図7は、本実施形態に係る移動ロボットの要部構成を示すブロック図である。図6および図7を用いて、本実施形態に係る移動ロボット1および情報処理システムの構成例について説明する。
§1 Configuration example FIG. 6 is a diagram schematically showing an information processing system according to the present embodiment. FIG. 7 is a block diagram showing a configuration of a main part of the mobile robot according to the present embodiment. A configuration example of the mobile robot 1 and the information processing system according to the present embodiment will be described with reference to FIGS. 6 and 7.

図6および図7に示すように、本実施形態に係る移動ロボット1aは、第1通信部40を備えており、他の移動ロボット1bおよびサーバ(外部装置)60と通信可能に構成される点において、実施形態1に係る移動ロボット1と異なる。なお、移動ロボット1a・1bの符号は、異なる移動ロボットであることを明示するために付されるものであり、移動ロボット1a・1bを移動ロボット1と総称することがある。 As shown in FIGS. 6 and 7, the mobile robot 1a according to the present embodiment includes a first communication unit 40, and is configured to be able to communicate with another mobile robot 1b and a server (external device) 60. Is different from the mobile robot 1 according to the first embodiment. The symbols of the mobile robots 1a and 1b are attached to clearly indicate that they are different mobile robots, and the mobile robots 1a and 1b may be collectively referred to as the mobile robot 1.

(第1通信部40)
第1通信部40は、後述するサーバ(外部機器)60との通信を行う。第1通信部40は、ケーブルなどを利用した優先の通信を行ってもよいし、無線通信を行ってもよい。また、第1通信部40は、別の移動ロボット1が備える第1通信部40と相互に通信を行ってもよい。
(1st communication unit 40)
The first communication unit 40 communicates with the server (external device) 60 described later. The first communication unit 40 may perform priority communication using a cable or the like, or may perform wireless communication. Further, the first communication unit 40 may communicate with each other with the first communication unit 40 included in another mobile robot 1.

(サーバ60)
サーバ60は、第2通信部61、情報管理制御部62および第2記憶部63を備える。情報管理制御部62は、移動ロボット1の状態変化に応じた第2記憶部63への書き込み制御(移動ロボット1の移動に応じてデータベースを更新する等)、および、第2通信部61を介した通信制御(移動ロボット1の移動に応じた情報送信等)を行う。
(Server 60)
The server 60 includes a second communication unit 61, an information management control unit 62, and a second storage unit 63. The information management control unit 62 controls writing to the second storage unit 63 according to the state change of the mobile robot 1 (updates the database according to the movement of the mobile robot 1 and the like), and via the second communication unit 61. Communication control (information transmission according to the movement of the mobile robot 1 and the like) is performed.

サーバ60は、例えば、第2通信部61により別の移動ロボット1a(別のマニピュレータ)が生成した撮像位置情報を受信し、当該撮像位置情報を第2記憶部63に記憶する。当該撮像位置情報は、サーバ60から移動ロボット1b等に随時送信される。また、移動ロボット1aは、自ら生成し送信した撮像位置情報を、サーバ60から受信してもよい。これにより、上記撮像位置情報を複数の移動ロボット1間で共有させることができる。 For example, the server 60 receives the image pickup position information generated by another mobile robot 1a (another manipulator) by the second communication unit 61, and stores the image pickup position information in the second storage unit 63. The imaging position information is transmitted from the server 60 to the mobile robot 1b or the like at any time. Further, the mobile robot 1a may receive the imaging position information generated and transmitted by itself from the server 60. As a result, the imaging position information can be shared among the plurality of mobile robots 1.

なお、複数の移動ロボット1間で共有される情報は、上記撮像位置情報に限られない。例えば、撮像位置情報として、移動ロボット1が撮像した撮像画像データが、サーバ60を介して複数の移動ロボット1間で共有されてもよい。 The information shared between the plurality of mobile robots 1 is not limited to the above-mentioned imaging position information. For example, as the imaging position information, the captured image data captured by the mobile robot 1 may be shared among the plurality of mobile robots 1 via the server 60.

このように、複数の移動ロボット1と、サーバ60とが相互に通信し、上記撮像位置情報の共有を行うことで、移動ロボット1が利用できる上記撮像位置情報の量は飛躍的に多くなる。移動ロボット1は、別の移動ロボット1aによる撮像画像に基づく撮像位置情報を利用することができるので、適切な位置にカメラ14を移動させて撮像できる可能性が向上する。そのため、移動ロボット1が把持対象となるワーク2を検出できず、再度撮像を行う可能性を低減できる。 By communicating with each other and sharing the imaging position information between the plurality of mobile robots 1 and the server 60 in this way, the amount of the imaging position information that can be used by the mobile robot 1 is dramatically increased. Since the mobile robot 1 can use the image pickup position information based on the image captured by another mobile robot 1a, the possibility of moving the camera 14 to an appropriate position and taking an image is improved. Therefore, the mobile robot 1 cannot detect the work 2 to be gripped, and the possibility of re-imaging can be reduced.

§2 動作例
図8は、本実施形態に係る制御部21における処理の流れの一例を示すフローチャートである。図8を用いて、制御部21における処理の流れの一例について説明する。
§2 Operation example FIG. 8 is a flowchart showing an example of a processing flow in the control unit 21 according to the present embodiment. An example of the processing flow in the control unit 21 will be described with reference to FIG.

まず、撮像位置制御部25は、第1記憶部30から、把持対象となるワーク2を含む撮像領域Aに対応する撮像位置情報が取得できるか否かを判定する(S11)。上記撮像位置情報が取得できない場合(S11でNO)、制御部21は、サーバ60から、把持対象となるワーク2が載置されたストッカ3を含む撮像領域Aに対応付けられた撮像位置情報を受信する(S12)。 First, the image pickup position control unit 25 determines whether or not the image pickup position information corresponding to the image pickup area A including the work 2 to be gripped can be acquired from the first storage unit 30 (S11). When the image pickup position information cannot be acquired (NO in S11), the control unit 21 receives the image pickup position information associated with the image pickup area A including the stocker 3 on which the work 2 to be gripped is placed from the server 60. Receive (S12).

なお、上記撮像位置情報がサーバ60に記憶されていない場合、上記撮像位置情報が取得されるまで待機する。上記撮像位置情報の取得は、例えば、ユーザ入力によって行われてもよい。 If the imaging position information is not stored in the server 60, the server 60 waits until the imaging position information is acquired. The acquisition of the imaging position information may be performed by, for example, user input.

次に、上記撮像位置情報が取得できた場合(S11でYES)、またはステップS12において上記撮像位置情報が受信または指定された場合、撮像位置制御部25は、上記撮像位置情報に従ってロボットアーム11の動作を制御し、カメラ14を上記撮像位置に移動させる(S13)。そして、カメラ制御部27は、カメラ14に撮像領域Aを撮像させる。撮像された撮像画像は、対象物特定部23に入力され、対象物特定部23により画像解析が行われる(S14)。 Next, when the imaging position information can be acquired (YES in S11), or when the imaging position information is received or specified in step S12, the imaging position control unit 25 causes the robot arm 11 to follow the imaging position information. The operation is controlled to move the camera 14 to the imaging position (S13). Then, the camera control unit 27 causes the camera 14 to take an image of the image pickup region A. The captured image is input to the object identification unit 23, and the image analysis is performed by the object identification unit 23 (S14).

次に、対象物特定部23は、上記画像解析により把持対象となるワーク2が検出されたか否かを判定する(S15)。ここで、把持対象となるワーク2が検出されなかった場合(S15でNO)、撮像位置制御部25は、カメラ14の位置を所定量移動させるようにロボットアーム11の動作を制御する(S16)。 Next, the object identification unit 23 determines whether or not the work 2 to be gripped is detected by the image analysis (S15). Here, when the work 2 to be gripped is not detected (NO in S15), the imaging position control unit 25 controls the operation of the robot arm 11 so as to move the position of the camera 14 by a predetermined amount (S16). ..

なお、上記所定量は、ワーク2の種類および配置状態等により任意の値が設定されてもよい。また、上記任意の値はユーザにより設定されてもよい。また、上記任意の値は、第1記憶部30に記憶された、撮像位置更新部22および対象物特定部23による撮像画像の解析結果に基づき、制御部21により自動的に設定および更新されてもよい。 An arbitrary value may be set for the predetermined amount depending on the type of the work 2, the arrangement state, and the like. Further, the above arbitrary value may be set by the user. Further, the above-mentioned arbitrary value is automatically set and updated by the control unit 21 based on the analysis result of the image captured by the image pickup position update unit 22 and the object identification unit 23 stored in the first storage unit 30. May be good.

次に、カメラ制御部27は、カメラ14により移動先の撮像領域Aを撮像させ、対象物特定部23は、カメラ14により撮像された撮像画像を解析する(S17)。そして、
対象物特定部23は再度、上記画像解析により把持対象となるワーク2が検出されるか否かを判定する(S18)。把持対象となるワーク2が検出されなかった場合(S18でNO)、ステップS16に処理が戻り、把持対象となるワーク2が検出されるまで、ステップS16からS18までの処理が繰り返される。
Next, the camera control unit 27 causes the camera 14 to image the image pickup region A of the movement destination, and the object identification unit 23 analyzes the image captured by the camera 14 (S17). and,
The object identification unit 23 again determines whether or not the work 2 to be gripped is detected by the image analysis (S18). If the work 2 to be gripped is not detected (NO in S18), the process returns to step S16, and the processes from steps S16 to S18 are repeated until the work 2 to be gripped is detected.

また、上記撮像画像の解析結果は、第1通信部40からサーバ60に送信され、サーバ60により記憶されてもよい。そして、サーバ60において蓄積された上記解析結果を移動ロボット1が受信し、受信した上記解析結果に基づいて自動的に上記任意の値が設定および更新されてもよい。 Further, the analysis result of the captured image may be transmitted from the first communication unit 40 to the server 60 and stored by the server 60. Then, the mobile robot 1 may receive the analysis result accumulated in the server 60, and the arbitrary value may be automatically set and updated based on the received analysis result.

次に、対象物特定部23が把持対象となるワーク2を検出した場合(S15またはS18でYES)、把持動作制御部24はロボットアーム11の動作を制御し、ワーク2を把持する。把持されたワーク2は、搬送地点まで搬送される(S19)。 Next, when the object identification unit 23 detects the work 2 to be gripped (YES in S15 or S18), the gripping motion control unit 24 controls the motion of the robot arm 11 to grip the work 2. The gripped work 2 is transported to the transport point (S19).

上記把持および搬送が行われている間に、撮像位置更新部22は、上記撮像画像を解析して、次回の把持動作の前のカメラ14による撮像位置を特定し、第1記憶部30に記憶された撮像位置情報を更新する(S20)。また、撮像位置更新部22によって生成された上記撮像位置情報は、第1通信部40によってサーバ60に送信される(S21)。 While the gripping and transporting are performed, the imaging position updating unit 22 analyzes the captured image, identifies the imaging position by the camera 14 before the next gripping operation, and stores it in the first storage unit 30. The captured imaging position information is updated (S20). Further, the image pickup position information generated by the image pickup position update unit 22 is transmitted to the server 60 by the first communication unit 40 (S21).

次に、ステップS11に処理が戻される。このとき、無人搬送車50による移動が行われていない期間に、マニピュレータ10が複数のワーク2の把持動作を繰り返す場合には、撮像位置制御部25は、第1通信部40によって受信される撮像位置情報を利用せずに、撮像位置更新部22が前回の把持動作において特定した撮像位置情報を利用して、カメラ14の移動制御を行ってもよい(S11をスキップ)。 Next, the process is returned to step S11. At this time, when the manipulator 10 repeats the gripping operation of the plurality of works 2 during the period when the automatic guided vehicle 50 is not moving, the image pickup position control unit 25 receives the image pickup by the first communication unit 40. Instead of using the position information, the image pickup position update unit 22 may use the image pickup position information specified in the previous gripping operation to control the movement of the camera 14 (skip S11).

このような構成によれば、移動ロボット1が自ら生成した最新の撮像位置情報によって、次回の把持対象となるワーク2を撮像できる位置にカメラ14を移動させることができる。また、サーバ60から撮像位置情報を受信する必要がなくなる。 According to such a configuration, the camera 14 can be moved to a position where the work 2 to be gripped next time can be imaged by the latest imaging position information generated by the mobile robot 1 itself. Further, it is not necessary to receive the imaging position information from the server 60.

また、移動ロボット1は、次の把持対象物が載置された空間領域に対応付けられた撮像位置情報をサーバ60から受信してもよい。以降、一連の処理が改めて行われる。 Further, the mobile robot 1 may receive the imaging position information associated with the space area on which the next gripping object is placed from the server 60. After that, a series of processes are performed again.

〔変形例〕
上述の実施形態1、2では、複数のワークを検出するセンサとして、カメラ(撮像部)14を用いる場合について説明した。ただしこれに限らず、所定の空間領域における複数のワークを検出するセンサ(センサ部)として、例えば、光(レーザ)によってセンシングを行うLIDAR(Light Detection and RangingまたはLaser Imaging Detection and Ranging)、または超音波によってセンシングを行う超音波センサを用いることができる。例えば、マニピュレータの制御装置は、LIDARによってセンシングすることで、所定の空間領域にある複数のワークの三次元位置の情報(センシング結果)を得てもよい。または、マニピュレータの制御装置は、超音波センサによってセンシングすることで、撮像画像に代わるセンシング画像(センシング結果)の情報を得てもよい。
[Modification example]
In the above-described first and second embodiments, the case where the camera (imaging unit) 14 is used as the sensor for detecting a plurality of workpieces has been described. However, the present invention is not limited to this, and as a sensor (sensor unit) for detecting a plurality of workpieces in a predetermined spatial region, for example, LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) that performs sensing by light (laser), or super An ultrasonic sensor that senses with sound waves can be used. For example, the control device of the manipulator may obtain information (sensing result) of three-dimensional positions of a plurality of workpieces in a predetermined spatial region by sensing with LIDAR. Alternatively, the control device of the manipulator may obtain information on a sensing image (sensing result) instead of the captured image by sensing with an ultrasonic sensor.

〔ソフトウェアによる実現例〕
制御部21の制御ブロック(特に撮像位置更新部22、対象物特定部23、および撮像位置制御部25)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control block of the control unit 21 (particularly, the image pickup position update unit 22, the object identification unit 23, and the image pickup position control unit 25) is realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized by software.

後者の場合、制御部21は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本開示の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本開示の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the control unit 21 includes a computer that executes instructions of a program that is software that realizes each function. The computer includes, for example, one or more processors and a computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present disclosure. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium", for example, a ROM (Read Only Memory) or the like, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the above program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。 The present disclosure is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present disclosure.

1、1a、1b 移動ロボット
2、2a、2b、2c、2d、2e ワーク(対象物)
10 マニピュレータ
11 ロボットアーム
14 カメラ(撮像部、センサ部)
21 制御部
22 撮像位置更新部(センシング位置更新部)
23 対象物特定部
24 把持動作制御部
25 撮像位置制御部(センシング位置制御部)
26 無人搬送車制御部
40 第1通信部
50 無人搬送車
60 サーバ(外部装置)
61 第2通信部
A、A1、A2、A3 撮像領域(空間領域)
1,1a, 1b Mobile robot 2,2a, 2b, 2c, 2d, 2e Work (object)
10 Manipulator 11 Robot arm 14 Camera (imaging unit, sensor unit)
21 Control unit 22 Imaging position update unit (sensing position update unit)
23 Object identification unit 24 Gripping motion control unit 25 Imaging position control unit (sensing position control unit)
26 Automated guided vehicle control unit 40 First communication unit 50 Automated guided vehicle 60 Server (external device)
61 Second communication unit A, A1, A2, A3 Imaging area (spatial area)

Claims (8)

対象物に対する把持動作を行うロボットアームと、
前記ロボットアームに設けられた、複数の前記対象物が載置されることが可能な所定の空間領域を光または超音波によりセンシングするセンサ部と、
前記空間領域に対応付けられたセンシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御するセンシング位置制御部と、
前記センシング位置における前記センサ部によるセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定する対象物特定部と、
前記対象物特定部によって特定された、今回の把持動作において把持すべき前記対象物を把持するように前記ロボットアームの動作を制御する把持動作制御部と、
前記センシング位置における前記センサ部によるセンシング結果を解析し、次回の把持動作の前の次回のセンシング動作のためのセンシング位置を特定し、前記センシング位置情報を更新するセンシング位置更新部と、
を備えるマニピュレータ。
A robot arm that grips an object and
A sensor unit provided on the robot arm that senses a predetermined space area on which a plurality of the objects can be placed by light or ultrasonic waves.
A sensing position control unit that controls the operation of the robot arm so as to move the sensor unit to a sensing position corresponding to the sensing position information associated with the spatial region.
An object identification unit that analyzes the sensing result by the sensor unit at the sensing position and identifies the object to be gripped in this gripping operation, and an object identification unit.
A gripping motion control unit that controls the operation of the robot arm so as to grip the object to be gripped in the current gripping motion, which is specified by the object specifying unit.
A sensing position update unit that analyzes the sensing result by the sensor unit at the sensing position, identifies the sensing position for the next sensing operation before the next gripping operation, and updates the sensing position information.
Manipulator equipped with.
前記センサ部は、前記所定の空間領域を撮像する撮像部であり、
前記センシング位置情報は、撮像位置情報であり、
前記センシング位置は、撮像位置であり、
前記センシング位置制御部は、前記撮像位置情報に応じた前記撮像位置に前記撮像部を移動させるように前記ロボットアームの動作を制御する撮像位置制御部であり、
前記センシング結果は、撮像画像であり、
前記センシング動作は、撮像動作であり、
前記センシング位置更新部は、前記撮像位置情報を更新する撮像位置更新部である請求項1に記載のマニピュレータ。
The sensor unit is an imaging unit that captures an image of the predetermined spatial region.
The sensing position information is imaging position information, and is
The sensing position is an imaging position.
The sensing position control unit is an imaging position control unit that controls the operation of the robot arm so as to move the imaging unit to the imaging position according to the imaging position information.
The sensing result is a captured image.
The sensing operation is an imaging operation.
The manipulator according to claim 1, wherein the sensing position updating unit is an imaging position updating unit that updates the imaging position information.
前記センシング位置更新部は、前記センシング位置における前記センサ部によるセンシング結果を解析し、次回の把持動作において把持すべき前記対象物の位置に基づいて前記センシング位置情報を更新する請求項1または2に記載のマニピュレータ。 The sensing position update unit analyzes the sensing result by the sensor unit at the sensing position, and updates the sensing position information based on the position of the object to be gripped in the next gripping operation according to claim 1 or 2. The manipulator described. 前記対象物特定部が前記センシング結果を解析した結果、今回の把持動作において把持すべき前記対象物が検出できない場合に、
前記センシング位置制御部は、前記センサ部を所定量移動させるように前記ロボットアームの動作を制御し、
前記対象物特定部は、前記センサ部が移動後の位置で再度センシングをおこなったセンシング結果を解析し、今回の把持動作において把持すべき前記対象物を特定する請求項1〜3の何れか1項に記載のマニピュレータ。
As a result of analyzing the sensing result by the object identification unit, when the object to be gripped cannot be detected in the current gripping operation,
The sensing position control unit controls the operation of the robot arm so as to move the sensor unit by a predetermined amount.
The object identification unit analyzes the sensing result of the sensor unit performing sensing again at the position after the movement, and identifies the object to be gripped in the current gripping operation, any one of claims 1 to 3. The manipulator described in the section.
無人搬送車に載置される請求項1〜4の何れか1項に記載のマニピュレータ。 The manipulator according to any one of claims 1 to 4, which is mounted on an automatic guided vehicle. 前記センシング位置更新部が特定したセンシング位置情報を、通信によって外部装置に送信するとともに、前記外部装置から別のマニピュレータによるセンシング結果に基づくセンシング位置情報を受信する通信部をさらに備え、
前記センシング位置制御部が、前記通信部によって受信された前記センシング位置情報に応じたセンシング位置に前記センサ部を移動させるように前記ロボットアームの動作を制御する請求項5に記載のマニピュレータ。
A communication unit is further provided, which transmits the sensing position information specified by the sensing position update unit to an external device by communication, and also receives the sensing position information based on the sensing result by another manipulator from the external device.
The manipulator according to claim 5, wherein the sensing position control unit controls the operation of the robot arm so as to move the sensor unit to a sensing position corresponding to the sensing position information received by the communication unit.
前記無人搬送車による移動が行われていない期間に複数の前記対象物の把持動作を繰り返す場合に、前記センシング位置制御部は、前記通信部によって受信される前記センシング位置情報を利用せずに、前記センシング位置更新部が前回の把持動作において特定したセンシング位置情報を利用して、前記センサ部の移動制御を行う請求項6に記載のマニピュレータ。 When the gripping operation of the plurality of objects is repeated during the period when the automatic guided vehicle is not moving, the sensing position control unit does not use the sensing position information received by the communication unit. The manipulator according to claim 6, wherein the sensing position updating unit controls the movement of the sensor unit by using the sensing position information specified in the previous gripping operation. 請求項1〜7の何れか1項に記載のマニピュレータと、前記マニピュレータを載置する無人搬送車とを備える移動ロボット。 A mobile robot including the manipulator according to any one of claims 1 to 7 and an automatic guided vehicle on which the manipulator is mounted.
JP2018168029A 2018-09-07 2018-09-07 Manipulators and mobile robots Active JP6958517B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018168029A JP6958517B2 (en) 2018-09-07 2018-09-07 Manipulators and mobile robots
PCT/JP2019/009095 WO2020049768A1 (en) 2018-09-07 2019-03-07 Manipulator and mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168029A JP6958517B2 (en) 2018-09-07 2018-09-07 Manipulators and mobile robots

Publications (2)

Publication Number Publication Date
JP2020040143A JP2020040143A (en) 2020-03-19
JP6958517B2 true JP6958517B2 (en) 2021-11-02

Family

ID=69722040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018168029A Active JP6958517B2 (en) 2018-09-07 2018-09-07 Manipulators and mobile robots

Country Status (2)

Country Link
JP (1) JP6958517B2 (en)
WO (1) WO2020049768A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113799140A (en) * 2021-10-14 2021-12-17 友上智能科技(苏州)有限公司 Flight vision positioning material taking method applied to composite robot
WO2024069779A1 (en) * 2022-09-28 2024-04-04 日本電気株式会社 Control system, control method, and recording medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000263482A (en) * 1999-03-17 2000-09-26 Denso Corp Attitude searching method and attitude searching device of work, and work grasping method and work grasping device by robot
JP2001163446A (en) * 1999-12-10 2001-06-19 Murata Mach Ltd Pickup device
JP4199264B2 (en) * 2006-05-29 2008-12-17 ファナック株式会社 Work picking apparatus and method
JP4226623B2 (en) * 2006-09-29 2009-02-18 ファナック株式会社 Work picking device
JP6335806B2 (en) * 2015-01-22 2018-05-30 三菱電機株式会社 Work supply apparatus and work gripping posture calculation method
JP6923383B2 (en) * 2017-07-27 2021-08-18 株式会社日立物流 Picking robot and picking system

Also Published As

Publication number Publication date
JP2020040143A (en) 2020-03-19
WO2020049768A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
US9604365B2 (en) Device and method of transferring articles by using robot
JP4226623B2 (en) Work picking device
JP4665857B2 (en) Mobile body capable of guiding arm and method for guiding arm
JP6958517B2 (en) Manipulators and mobile robots
WO2020022302A1 (en) Grasping device
KR102249176B1 (en) Three-way communication system comprising end device, edge server controlling end device and cloud server, and operating method of the same
JP2016147330A (en) Control apparatus based on object recognition
US20170203434A1 (en) Robot and robot system
US11470259B2 (en) Systems and methods for sampling images
JP4578438B2 (en) Robot device
CN110856932A (en) Interference avoidance device and robot system
JP5609760B2 (en) Robot, robot operation method, and program
JP2006224291A (en) Robot system
JP7331446B2 (en) Control device, automatic guided vehicle, control method and control program for automatic guided vehicle
US20180056517A1 (en) Robot, robot control device, and robot system
JP7059872B2 (en) Mobile manipulators, mobile robots, servers, and mobile manipulator systems
JP2007171018A (en) Object position recognition method and device
JP2021122868A (en) Robot, control method, information processor, and program
JP6238629B2 (en) Image processing method and image processing apparatus
WO2020100522A1 (en) Mark detection system, signal processing circuit, computer program, and method
JP2015085457A (en) Robot, robot system, and robot control device
JP2021058980A (en) Production system
JP7153505B2 (en) moving body
JP7205569B2 (en) Robotic system, working method and pick-up method
WO2022107350A1 (en) Mobile manipulator, control method for mobile manipulator, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210920

R150 Certificate of patent or registration of utility model

Ref document number: 6958517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150