JP6725930B1 - Liquid weighing method, control device, computer program and learning method - Google Patents

Liquid weighing method, control device, computer program and learning method Download PDF

Info

Publication number
JP6725930B1
JP6725930B1 JP2020069679A JP2020069679A JP6725930B1 JP 6725930 B1 JP6725930 B1 JP 6725930B1 JP 2020069679 A JP2020069679 A JP 2020069679A JP 2020069679 A JP2020069679 A JP 2020069679A JP 6725930 B1 JP6725930 B1 JP 6725930B1
Authority
JP
Japan
Prior art keywords
container
angle
liquid
image
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020069679A
Other languages
Japanese (ja)
Other versions
JP2021164980A (en
Inventor
学嗣 浅谷
学嗣 浅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2020069679A priority Critical patent/JP6725930B1/en
Application granted granted Critical
Publication of JP6725930B1 publication Critical patent/JP6725930B1/en
Priority to PCT/JP2021/012633 priority patent/WO2021205896A1/en
Publication of JP2021164980A publication Critical patent/JP2021164980A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F22/00Methods or apparatus for measuring volume of fluids or fluent solid material, not otherwise provided for

Abstract

【課題】ロボットアームを利用して第1容器から第2容器への注水を行い、液体を秤量する液体秤量方法、制御装置、コンピュータプログラム及び学習方法を提供する。【解決手段】本実施の形態に係る液体秤量方法は、第1時点における前記第1容器の画像、前記第1容器の角度及び前記第2容器の液体量を入力として受け付け、第2時点における前記第1容器の角度を出力するよう機械学習された学習モデルを用い、前記ロボットアームの動作を制御する制御装置が、第1時点に撮影された前記第1容器を含む画像を取得し、前記第1時点の前記第1容器の角度を取得し、前記第1時点の前記第2容器の液体量を取得し、取得した画像、角度及び液体量を前記学習モデルへ入力して、前記学習モデルが出力する第2時点の角度を取得し、取得した前記第2時点の角度に応じて、前記ロボットアームが保持する前記第1容器の角度を制御する。【選択図】図5PROBLEM TO BE SOLVED: To provide a liquid weighing method, a controller, a computer program, and a learning method for weighing water by pouring water from a first container to a second container using a robot arm. A liquid weighing method according to the present embodiment receives an image of a first container, an angle of the first container, and a liquid amount of a second container at a first time point as inputs, and the liquid weighing method at a second time point. A controller for controlling the operation of the robot arm using a learning model machine-learned to output the angle of the first container acquires an image including the first container captured at a first time point, and The angle of the first container at one time point is acquired, the liquid amount of the second container at the first time point is acquired, and the acquired image, angle, and liquid amount are input to the learning model, and the learning model is The angle at the second time point to be output is acquired, and the angle of the first container held by the robot arm is controlled according to the acquired angle at the second time point. [Selection diagram] Fig. 5

Description

本発明は、ロボットアームを利用して液体を秤量する液体秤量方法、制御装置、コンピュータプログラム及び学習方法に関する。 The present invention relates to a liquid weighing method, a control device, a computer program, and a learning method for weighing a liquid using a robot arm.

従来、複数の関節ユニットを連結することにより構成された多関節のロボットアーム(マニピュレータ)が知られている。ロボットアームは汎用性が高く、工場等における組立及び搬送等の作業並びに実験室等における遠隔作業等のように、様々な産業での利用が期待されている。 Conventionally, a multi-joint robot arm (manipulator) configured by connecting a plurality of joint units is known. The robot arm has high versatility, and is expected to be used in various industries such as assembling and carrying work in factories and remote work in laboratories.

特許文献1においては、同一被検者の検体に対して複数種類の検査を実行する際の前処理を行う検体前処理方法が提案されている。この方法によれば、第1検体容器に収容された検体を分注部が複数の第2検体容器に分注し、ロボットアームが第2検体容器を把持して検体前処理部へ搬送する。これにより特許文献1に記載の検体前処理方法は、ユーザの作業負担を軽減すると共に、ユーザ由来の成分混入によるコンタミネーション(試料汚染)の発生を抑制することができる。 Patent Document 1 proposes a sample pretreatment method that performs pretreatment when a plurality of types of tests are performed on a sample of the same subject. According to this method, the dispensing unit dispenses the sample contained in the first sample container into the plurality of second sample containers, and the robot arm holds the second sample container and conveys it to the sample pretreatment unit. As a result, the sample pretreatment method described in Patent Document 1 can reduce the work load on the user and can suppress the occurrence of contamination (sample contamination) due to the mixing of components originating from the user.

特開2019−174369号公報JP, 2019-174369, A

特許文献1に記載の検体前処理方法では、ロボットアームは第2検体容器の搬送に用いられるのみであり、第1検体容器から第2検体容器への検体の分注は別の装置にて行われている。 In the sample pretreatment method described in Patent Document 1, the robot arm is only used for transporting the second sample container, and the dispensing of the sample from the first sample container to the second sample container is performed by another device. It is being appreciated.

本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、ロボットアームを利用して第1容器から第2容器への注水を行い、液体を秤量することができる液体秤量方法、制御装置、コンピュータプログラム及び学習方法を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to use a robot arm to inject water from a first container to a second container and measure a liquid. A liquid weighing method, a control device, a computer program, and a learning method are provided.

一実施形態に係る液体秤量方法は、ロボットアームが保持する第1容器から第2容器へ所定量の液体を注水する液体秤量方法であって、第1時点における前記第1容器の画像、前記第1容器の角度及び前記第2容器の液体量を入力として受け付け、第2時点における前記第1容器の角度を出力するよう機械学習された学習モデルを用い、前記ロボットアームの動作を制御する制御装置が、第1時点に撮影された前記第1容器を含む画像を取得し、前記第1時点の前記第1容器の角度を取得し、前記第1時点の前記第2容器の液体量を取得し、取得した画像、角度及び液体量を前記学習モデルへ入力して、前記学習モデルが出力する第2時点の角度を取得し、取得した前記第2時点の角度に応じて、前記ロボットアームが保持する前記第1容器の角度を制御する。 A liquid weighing method according to an embodiment is a liquid weighing method of pouring a predetermined amount of liquid from a first container held by a robot arm into a second container, and is an image of the first container at a first time point, A controller for controlling the operation of the robot arm by using a learning model machine-learned to receive the angle of one container and the liquid amount of the second container as inputs and output the angle of the first container at a second time point. Acquires an image including the first container taken at a first time point, acquires an angle of the first container at the first time point, and acquires a liquid amount of the second container at the first time point. The acquired image, the angle, and the liquid amount are input to the learning model to acquire the angle at the second time point output by the learning model, and the robot arm holds the angle according to the acquired angle at the second time point. The angle of the first container to be controlled is controlled.

一実施形態による場合は、ロボットアームを利用して第1容器から第2容器への注水を行い、液体を秤量することが期待できる。 According to one embodiment, it can be expected that water is weighed from the first container to the second container by using the robot arm.

本実施の形態に係る液体秤量システムの概要を説明するための模式図である。It is a schematic diagram for explaining the outline of the liquid weighing system according to the present embodiment. ロボットアームの一構成例を示す模式図である。It is a schematic diagram which shows one structural example of a robot arm. 本実施の形態に係る制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the control apparatus which concerns on this Embodiment. 本実施の形態に係る制御装置が行う第1容器の画像取得処理を説明するための模式図である。It is a schematic diagram for explaining the image acquisition process of the first container performed by the control device according to the present embodiment. 本実施の形態に係る学習モデルの構成を説明するための模式図である。It is a schematic diagram for demonstrating the structure of the learning model which concerns on this Embodiment. CAEのエンコーダ及びデコーダの学習処理を説明するための模式図である。It is a schematic diagram for demonstrating the learning process of the encoder and decoder of CAE. 学習モデルの学習処理を説明するための模式図である。It is a schematic diagram for demonstrating the learning process of a learning model. 見本動作の制限を説明するための模式図である。It is a schematic diagram for demonstrating the limitation of a sample operation. 見本動作の制限を説明するための模式図である。It is a schematic diagram for demonstrating the limitation of a sample operation. 本実施の形態に係る制御装置が行う教師データ生成処理の手順を示すフローチャートである。5 is a flowchart showing a procedure of teacher data generation processing performed by the control device according to the present embodiment. 本実施の形態に係る制御装置が行う学習モデルの学習処理の手順を示すフローチャートである。5 is a flowchart showing a procedure of learning processing of a learning model performed by the control device according to the present embodiment. 本実施の形態に係る制御装置が行う液体秤量処理の概略手順を示すフローチャートである。It is a flow chart which shows a schematic procedure of liquid weighing processing which a control device concerning this embodiment performs. 本実施の形態に係る制御装置が行う液体秤量処理の詳細手順を示すフローチャートである。It is a flow chart which shows a detailed procedure of liquid weighing processing which a control device concerning this embodiment performs.

本発明の実施形態に係る液体秤量システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of the liquid weighing system according to the embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these exemplifications, and is shown by the scope of the claims, and is intended to include meanings equivalent to the scope of the claims and all modifications within the scope.

<システム概要>
図1は、本実施の形態に係る液体秤量システムの概要を説明するための模式図である。本実施の形態に係る液体秤量システムは、制御装置1、ロボットアーム2、カメラ3及び計量器4等を備えて構成されている。本実施の形態に係る液体秤量システムは、液体を収容した第1容器101をロボットアーム2が把持し、作業台103の容器置き場104から第2容器102の載置場所へと搬送し、ロボットアーム2が第1容器101を傾けることによって第1容器101から第2容器102への注水を行う。制御装置1は、第1容器101から第2容器102へ所定量の液体を注水するようにロボットアーム2の動作を制御し、これにより液体の所定量の秤量を行う。
<System overview>
FIG. 1 is a schematic diagram for explaining the outline of the liquid weighing system according to the present embodiment. The liquid weighing system according to the present embodiment is configured to include a control device 1, a robot arm 2, a camera 3, a measuring device 4, and the like. In the liquid weighing system according to the present embodiment, the robot arm 2 holds the first container 101 containing the liquid and conveys the first container 101 from the container storage area 104 of the work table 103 to the mounting area of the second container 102. 2 tilts the first container 101 to inject water from the first container 101 into the second container 102. The control device 1 controls the operation of the robot arm 2 so as to inject a predetermined amount of liquid from the first container 101 into the second container 102, and thereby weighs a predetermined amount of liquid.

なお本実施の形態に係る液体秤量システムが秤量の対象とする液体は、どのような液体であってもよい。第1容器101及び第2容器102の形状及びサイズ等は、どのようなものであってもよい。第1容器101は、ロボットアーム2が把持して傾けることができるものであり、傾けることによって収容した液体を第2容器102へ注水することができるものであればよい。第2容器102は、第1容器101から注水される液体を収容できるものであり、所定量の液体を収容できるものであればよい。ロボットアーム2は、少なくとも第1容器101を傾ける動作を行うことができるものであればよい。 The liquid to be weighed by the liquid weighing system according to this embodiment may be any liquid. The first container 101 and the second container 102 may have any shape and size. The first container 101 can be grasped by the robot arm 2 and tilted, and any liquid can be poured into the second container 102 by tilting it. The second container 102 can contain the liquid poured from the first container 101, and may be any container that can contain a predetermined amount of liquid. The robot arm 2 may be any one that can perform at least the operation of tilting the first container 101.

カメラ3は、作業台103の上で行われる秤量の作業を撮影し、撮影により得られた時系列的な画像(動画像)を制御装置1へ送信する。本実施の形態においてカメラ3は、少なくとも、ロボットアーム2が第1容器101から第2容器102への注水を行っている際の、第1容器101を撮像する。このときにカメラ3が撮影する画像には、第1容器101に収容された液体の液面が含まれることが好ましい。 The camera 3 photographs the work of weighing performed on the workbench 103, and transmits time-series images (moving images) obtained by the photographing to the control device 1. In the present embodiment, the camera 3 images at least the first container 101 while the robot arm 2 is injecting water from the first container 101 into the second container 102. The image captured by the camera 3 at this time preferably includes the liquid surface of the liquid contained in the first container 101.

計量器4は、第2容器102に注水された液体の量(質量又は容量等)を計測し、計測結果を制御装置1へ送信する。本実施の形態に係る液体秤量システムは、計量器4の計量する液体量が所定量となるように、ロボットアーム2が第1容器101から第2容器102への液体の注水を行うものである。なお本実施の形態においては計量器4にて第2容器102の液体量を計測するものとするが、これに限るものではなく、第2容器102の液体量はどのような装置で計測してもよい。例えばカメラ3にて撮影した第2容器102の画像に基づいて液体量を計測してもよい。 The measuring instrument 4 measures the amount (mass or volume) of the liquid poured into the second container 102, and sends the measurement result to the control device 1. In the liquid weighing system according to the present embodiment, the robot arm 2 injects the liquid from the first container 101 to the second container 102 so that the liquid amount measured by the measuring device 4 becomes a predetermined amount. .. In the present embodiment, the amount of liquid in the second container 102 is measured by the measuring device 4, but the present invention is not limited to this, and the amount of liquid in the second container 102 may be measured by any device. Good. For example, the liquid amount may be measured based on the image of the second container 102 taken by the camera 3.

制御装置1は、ロボットアーム2に接続されており、ロボットアーム2が備えるモータ又はアクチュエータ等を制御することによって、ロボットアーム2の動作を制御する。本実施の形態に係る液体秤量システムでは、ロボットアーム2が把持した第1容器101の傾き(角度)を制御装置1が制御することによって、ロボットアーム2による秤量動作を行う。なお制御装置1は、ロボットアーム2の近傍に配置される必要はなく、例えばクラウドサーバ装置等のように遠隔でロボットアーム2の制御を行う装置であってもよい。 The control device 1 is connected to the robot arm 2 and controls the operation of the robot arm 2 by controlling a motor, an actuator, or the like included in the robot arm 2. In the liquid weighing system according to the present embodiment, the control device 1 controls the inclination (angle) of the first container 101 held by the robot arm 2 to perform the weighing operation by the robot arm 2. The control device 1 does not need to be arranged in the vicinity of the robot arm 2, and may be a device that remotely controls the robot arm 2, such as a cloud server device.

また本実施の形態においては、カメラ3が撮影した画像、及び、計量器4が計量した第2容器102の液体量が制御装置1へ入力されている。詳細な説明は後述するが、制御装置1は、予め機械学習がなされた学習済の学習モデルを備えており、この学習モデルを用いてロボットアーム2の動作を制御する処理を行う。学習モデルは、現時点における第1容器101の角度と、第1容器101の画像と、第2容器102の液体量との入力に対して、次時点における第1容器101の角度を出力するよう予め機械学習がなされている。制御装置1は、カメラ3により撮影された第1容器101の画像と、第1容器101の角度と、計量器4が計量した第2容器102の液体量とを学習モデルへ入力し、学習モデルが出力する次時点の第1容器101の角度を取得する。制御装置1は、取得した次時点の角度を目標値としてロボットアーム2を制御し、第1容器101の角度を変化させる。 Further, in the present embodiment, the image captured by the camera 3 and the liquid amount of the second container 102 measured by the measuring device 4 are input to the control device 1. Although detailed description will be given later, the control device 1 includes a learned learning model that has been machine-learned in advance, and uses this learning model to perform processing for controlling the operation of the robot arm 2. The learning model is preliminarily configured to output the angle of the first container 101 at the next time point with respect to the input of the angle of the first container 101 at the present time, the image of the first container 101, and the liquid amount of the second container 102. Machine learning is done. The control device 1 inputs the image of the first container 101 taken by the camera 3, the angle of the first container 101, and the liquid amount of the second container 102 weighed by the weighing machine 4 to the learning model, and the learning model The angle of the first container 101 at the next time point output by is acquired. The control device 1 controls the robot arm 2 by using the acquired angle at the next time as a target value, and changes the angle of the first container 101.

第2容器102へ所定量の液体の注水を完了した後、制御装置1は、第1容器101を容器置き場104へ載置するようにロボットアーム2の動作を制御する。このときにロボットアーム2が第1容器101を載置する容器置き場104は、初めに第1容器101が置かれていた場所と同じであってもよく、異なる場所であってもよい。 After completing the injection of the predetermined amount of liquid into the second container 102, the control device 1 controls the operation of the robot arm 2 so as to place the first container 101 on the container storage area 104. At this time, the container storage place 104 where the robot arm 2 mounts the first container 101 may be the same as the place where the first container 101 was initially placed, or may be a different place.

<装置構成>
図2は、ロボットアーム2の一構成例を示す模式図である。本実施の形態に係るロボットアーム2は、第1ベース部20a、第2ベース部20b、第1アーム部20c、第2アーム部20d及び第3アーム部20eを備えて構成されている。第1ベース部20aは、ロボットアーム2の土台を構成するものであり、例えば作業台103又はその近くの床面等に不動に固定される。第2ベース部20bは、第1軸21を介して回転可能に第1ベース部20aに支持されている。
<Device configuration>
FIG. 2 is a schematic diagram showing a configuration example of the robot arm 2. The robot arm 2 according to this embodiment includes a first base portion 20a, a second base portion 20b, a first arm portion 20c, a second arm portion 20d, and a third arm portion 20e. The first base portion 20a constitutes a base of the robot arm 2, and is fixedly fixed to, for example, the work table 103 or a floor surface near the work table 103. The second base portion 20b is rotatably supported by the first base portion 20a via the first shaft 21.

第1アーム部20cは、緩やかに湾曲した長い板状の部材であり、長手方向の一端側で第2軸22を介して揺動可能に第2ベース部20bに支持されている。第1アーム部20cの他端側は、第3軸23を介して揺動可能に第2アーム部20dを支持している。第2アーム部20dは、棒状の長い部材であり、その中途部分に第4軸24が埋め込まれている。第2アーム部20dは、第1アーム部20cに支持される根元部分に対して、先端部分が第4軸24により軸回りに回転可能である。第2アーム部20dの先端には、第3アーム部20eが第5軸25を介して揺動可能に支持されている。第3アーム部20eは、棒状の短い部材であり、その中途部分に第6軸26が埋め込まれている。第3アーム部20eは、第2アーム部20dに支持される根元部分に対して、先端部分が第6軸26により回転可能である。 The first arm portion 20c is a gently curved long plate-shaped member, and is swingably supported by the second base portion 20b via the second shaft 22 at one end side in the longitudinal direction. The other end of the first arm portion 20c supports the second arm portion 20d swingably via the third shaft 23. The second arm portion 20d is a long rod-shaped member, and the fourth shaft 24 is embedded in the middle portion thereof. A tip portion of the second arm portion 20d is rotatable about the axis by the fourth shaft 24 with respect to a root portion supported by the first arm portion 20c. The third arm portion 20e is swingably supported via the fifth shaft 25 at the tip of the second arm portion 20d. The third arm portion 20e is a short rod-shaped member, and the sixth shaft 26 is embedded in the middle portion thereof. The tip portion of the third arm portion 20e is rotatable by the sixth shaft 26 with respect to the root portion supported by the second arm portion 20d.

第3アーム部20eには、種々のエンドエフェクタを取り付けることができる。エンドエフェクタは、例えばハンド(グリッパ)、吸着ハンド、スプーン、スプレーガン又は溶接トーチ等の種々のものが取り付けられ得る。本実施の形態においてロボットアーム2の第3アーム部20eには、第1容器101を把持することができるハンド等のエンドエフェクタが取り付けられる。ロボットアーム2のエンドエフェクタに把持された第1容器101は、第6軸26の回転により傾けられる。即ち制御装置1は、ロボットアーム2の第6軸26の回転角度を制御することによって、エンドエフェクタに把持された第1容器101の角度を制御することができる。 Various end effectors can be attached to the third arm portion 20e. As the end effector, various things such as a hand (gripper), a suction hand, a spoon, a spray gun or a welding torch can be attached. In the present embodiment, an end effector such as a hand capable of holding the first container 101 is attached to the third arm portion 20e of the robot arm 2. The first container 101 held by the end effector of the robot arm 2 is tilted by the rotation of the sixth shaft 26. That is, the control device 1 can control the angle of the first container 101 held by the end effector by controlling the rotation angle of the sixth shaft 26 of the robot arm 2.

ロボットアーム2の第1軸21〜第6軸26は、それぞれ個別のモータにより回転する。制御装置1は、これらのモータの回転を個別に制御し、ロボットアーム2による第1容器101の搬送、及び、第1容器101から第2容器102への液体の注水等を行うことができる。またロボットアーム2の第1軸21〜第6軸26を回転させる各モータは、例えばステッピングモータ等のように回転角度を高精度に制御可能なモータである。制御装置1は、各モータの回転角度を知ることができると共に、高精度に制御することができる。 The first axis 21 to the sixth axis 26 of the robot arm 2 are rotated by individual motors. The control device 1 can individually control the rotations of these motors to carry the first container 101 by the robot arm 2 and to inject liquid from the first container 101 to the second container 102. Further, each motor that rotates the first shaft 21 to the sixth shaft 26 of the robot arm 2 is a motor that can control the rotation angle with high accuracy, such as a stepping motor. The control device 1 can know the rotation angle of each motor and can control with high accuracy.

なお液体秤量システムに用いるロボットアーム2は、図2に示すものに限らない。ロボットアーム2の回転軸の数は、5つ以下又は7つ以上であってよく、エンドエフェクタに把持された第1容器101の角度を制御するための少なくとも1つの回転軸を有していればよい。またロボットアーム2のベース部の数、アーム部の数、及び、各部材の連結構造等は、図示のものに限らず、適宜に変更等がなされてよい。 The robot arm 2 used in the liquid weighing system is not limited to that shown in FIG. The number of rotation axes of the robot arm 2 may be five or less, or seven or more, as long as it has at least one rotation axis for controlling the angle of the first container 101 gripped by the end effector. Good. Further, the number of base portions of the robot arm 2, the number of arm portions, the connecting structure of each member, and the like are not limited to those shown in the drawings, and may be appropriately changed.

図3は、本実施の形態に係る制御装置1の構成を示すブロック図である。本実施の形態に係る制御装置1は、処理部11、記憶部(ストレージ)12、通信部(トランシーバ)13、表示部(ディスプレイ)14及び操作部15等を備えて構成されている。処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を用いて構成されている。処理部11は、記憶部12に記憶された制御プログラム12aを読み出して実行することにより、ロボットアーム2の動作を制御する処理及び学習モデルの学習処理等の種々の処理を行う。 FIG. 3 is a block diagram showing the configuration of the control device 1 according to the present embodiment. The control device 1 according to the present embodiment includes a processing unit 11, a storage unit (storage) 12, a communication unit (transceiver) 13, a display unit (display) 14, an operation unit 15, and the like. The processing unit 11 uses an arithmetic processing unit such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit) or a GPU (Graphics Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). Is configured. The processing unit 11 reads and executes the control program 12a stored in the storage unit 12 to perform various processes such as a process for controlling the operation of the robot arm 2 and a learning model learning process.

記憶部12は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行する制御プログラム12aと、予め学習がなされた学習モデル5とを記憶している。 The storage unit 12 is configured by using a large-capacity storage device such as a hard disk. The storage unit 12 stores various programs executed by the processing unit 11 and various data necessary for the processing of the processing unit 11. In the present embodiment, the storage unit 12 stores the control program 12a executed by the processing unit 11 and the learning model 5 that has been learned in advance.

本実施の形態において制御プログラム12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、制御装置1は記録媒体99から制御プログラム12aを読み出して記憶部12に記憶する。ただし、制御プログラム12aは、例えば制御装置1の製造段階において記憶部12に書き込まれてもよい。また例えば制御プログラム12aは、遠隔のサーバ装置等が配信するものを制御装置1が通信にて取得してもよい。例えば制御プログラム12aは、記録媒体99に記録されたものを書込装置が読み出して制御装置1の記憶部12に書き込んでもよい。制御プログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。 In the present embodiment, the control program 12a is provided in a form recorded on a recording medium 99 such as a memory card or an optical disk, and the control device 1 reads the control program 12a from the recording medium 99 and stores it in the storage unit 12. However, the control program 12a may be written in the storage unit 12 at the manufacturing stage of the control device 1, for example. Further, for example, the control program 12a may be acquired by the control device 1 by communication through a program distributed by a remote server device. For example, the control program 12a may be recorded in the recording medium 99 by a writing device and written in the storage unit 12 of the control device 1. The control program 12a may be provided in the form of distribution via a network, or may be provided in the form recorded in the recording medium 99.

本実施の形態に係る制御装置1が備える学習モデル5は、ロボットアーム2の動作を制御して液体の秤量を行うよう機械学習がなされた学習モデルである。本実施の形態においては制御装置1が学習モデル5の学習処理を予め行うものとするが、これに限るものではない。学習モデル5は例えば別のサーバ装置等にて予め機械学習がなされてよく、制御装置1はサーバ装置等にて予め機械学習がなされた学習済の学習モデルを、ネットワーク又は記録媒体99等を介して取得してもよい。 The learning model 5 included in the control device 1 according to the present embodiment is a learning model in which machine learning is performed so as to control the operation of the robot arm 2 and weigh the liquid. In the present embodiment, the control device 1 performs the learning process of the learning model 5 in advance, but the present invention is not limited to this. The learning model 5 may be preliminarily machine-learned by another server device or the like, and the control device 1 may pass the learned learning model preliminarily machine-learned by the server device or the like through the network or the recording medium 99. May be acquired.

通信部13は、有線又は無線のネットワークを介して、ロボットアーム2、カメラ3及び計量器4等の装置との間でデータの送受信を行う。本実施の形態において制御装置1は、ロボットアーム2へ第1軸21〜第6軸26の回転を制御する制御命令等を、通信部13からロボットアーム2へ送信する。また制御装置1は、ロボットアーム2からフィードバックされる種々の情報を通信部13にて受信してよい。また制御装置1は、カメラ3にて撮影された時系列的な画像(動画像)のデータを、通信部13にてカメラ3から受信する。また制御装置1は、計量器4にて計量された質量又は容量等のデータを、通信部13にて計量器4から受信する。通信部13は、処理部11から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部11へ与える。 The communication unit 13 transmits/receives data to/from devices such as the robot arm 2, the camera 3, and the weighing instrument 4 via a wired or wireless network. In the present embodiment, the control device 1 transmits, to the robot arm 2, a control command or the like for controlling the rotation of the first axis 21 to the sixth axis 26 to the robot arm 2 from the communication unit 13. Further, the control device 1 may receive various information fed back from the robot arm 2 at the communication unit 13. Further, the control device 1 receives data of time-series images (moving images) captured by the camera 3 from the camera 3 via the communication unit 13. Further, the control device 1 receives the data such as the mass or the capacity measured by the measuring instrument 4 from the measuring instrument 4 by the communication unit 13. The communication unit 13 transmits the data given from the processing unit 11 to another device and gives the data received from the other device to the processing unit 11.

表示部14は、液晶ディスプレイ等を用いて構成されており、処理部11の処理に基づいて種々の画像及び文字等を表示する。本実施の形態において制御装置1は、ロボットアーム2の動作状況等を表示部14に表示する。 The display unit 14 is configured by using a liquid crystal display or the like, and displays various images and characters based on the processing of the processing unit 11. In this embodiment, the control device 1 displays the operation status of the robot arm 2 on the display unit 14.

操作部15は、ユーザの操作を受け付け、受け付けた操作を処理部11へ通知する。例えば操作部15は、機械式のボタン又は表示部14の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部35は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは制御装置1に対して取り外すことが可能な構成であってもよい。本実施の形態においては、ユーザは操作部15を利用して、第1容器101から第2容器102へ注水する液体量の目標値、即ち液体秤量処理により秤量する液体量の目標値を設定することができる。 The operation unit 15 receives a user operation and notifies the processing unit 11 of the received operation. For example, the operation unit 15 receives a user's operation with an input device such as a mechanical button or a touch panel provided on the surface of the display unit 14. Further, for example, the operation unit 35 may be an input device such as a mouse and a keyboard, and these input devices may be detachable from the control device 1. In the present embodiment, the user uses the operation unit 15 to set the target value of the liquid amount to be poured from the first container 101 to the second container 102, that is, the target value of the liquid amount to be weighed by the liquid weighing process. be able to.

また本実施の形態に係る制御装置1の処理部11には、記憶部12に記憶された制御プログラム12aを処理部11が読み出して実行することにより、画像取得部11a、現角度取得部11b、液体量取得部11c、次角度取得部11d、制御処理部11e及び学習処理部11f等がソフトウェア的な機能部として実現される。なおこれらの機能部は、ロボットアーム2による液体秤量の処理に関する機能部であり、これ以外の機能部については図示及び説明を省略する。 Further, in the processing unit 11 of the control device 1 according to the present embodiment, the processing unit 11 reads out and executes the control program 12a stored in the storage unit 12, whereby the image acquisition unit 11a, the current angle acquisition unit 11b, and The liquid amount acquisition unit 11c, the next angle acquisition unit 11d, the control processing unit 11e, the learning processing unit 11f, and the like are realized as software-like functional units. It should be noted that these functional units are functional units related to processing of liquid weighing by the robot arm 2, and illustration and description of the other functional units are omitted.

画像取得部11aは、カメラ3が撮像した第1容器101の画像を取得する処理を行う。本実施の形態においてカメラ3は、作業台103の上で行われるロボットアーム2による作業の全体を撮影している。このためカメラ3が撮影する画像には、ロボットアーム2の一部又は全部、第1容器101、第2容器102及び容器置き場104が含まれている。画像取得部11aは、カメラ3から送信されるこの全体画像を通信部13にて受信し、受信した全体画像から液体秤量処理に必要な部分画像を抽出する。本実施の形態において画像取得部11aは、第1容器101が映された領域を部分画像として全体画像から抽出し、抽出した部分画像を液体秤量処理に用いる画像とする。なお本実施の形態においてカメラ3は、第2容器102への注水を行っている状態で第1容器101に収容された液体の液面が映るように位置及び撮影角度等が設定されており、画像取得部11aが取得する画像には、第1容器101に収容された液体の液面の画像が含まれる。 The image acquisition unit 11a performs a process of acquiring an image of the first container 101 captured by the camera 3. In the present embodiment, the camera 3 photographs the entire work performed by the robot arm 2 on the workbench 103. Therefore, the image captured by the camera 3 includes a part or all of the robot arm 2, the first container 101, the second container 102, and the container storage area 104. The image acquisition unit 11a receives the whole image transmitted from the camera 3 at the communication unit 13, and extracts a partial image required for the liquid weighing process from the received whole image. In the present embodiment, the image acquisition unit 11a extracts the region in which the first container 101 is reflected as a partial image from the entire image, and uses the extracted partial image as the image used for the liquid weighing process. In the present embodiment, the camera 3 has a position, a photographing angle, and the like set so that the liquid level of the liquid contained in the first container 101 is reflected while water is being poured into the second container 102. The image acquired by the image acquisition unit 11a includes an image of the liquid level of the liquid contained in the first container 101.

現角度取得部11bは、ロボットアーム2に把持された第1容器101の現時点における角度を取得する処理を行う。第1容器101の角度は、基準軸(例えば、鉛直軸)に対する、第1容器101の所定の軸(例えば、中心軸)の角度である(図8参照)。本実施の形態において制御装置1は、第1容器101を容器置き場104から第2容器102への注水を行う位置まで移動する際に、ロボットアーム2の第1軸21〜第6軸26を適宜に回転させて第1容器101を搬送する。ただし本実施の形態において制御装置1は第1容器101から第2容器102への液体の注水を行う際に、ロボットアーム2の第1軸21〜第5軸25は回転させずに角度を固定し、ロボットアーム2の第6軸26のみを回転させて第1容器101を傾ける。このため液体秤量処理における第1容器101の初期角度は、搬送処理の終了時点における第1軸21〜第6軸26の角度により定まり、現角度取得部11bは、ロボットアーム2の第1軸21〜第6軸26の角度により定まる第1容器101の初期角度を取得する。また液体秤量処理中の第1容器101の角度は、初期角度に対してロボットアーム2の第6軸を回転させた角度を増減したものとみなすことができる。現角度取得部11bは、液体秤量処理において回転させたロボットアーム2の第6軸26の角度を取得し、初期角度及び第6軸26を回転させた角度に基づいて第1容器101の現時点の角度を算出することで、第1容器101の現時点の角度を取得する。ロボットアーム2の第6軸26の角度は、例えばロボットアーム2に対して出力した制御量、即ち第6軸26の回転を指示した際の回転量又は回転角度等に基づいて算出等されてもよく、また例えばロボットアーム2からフィードバックされる情報に基づいて取得されてもよい。 The current angle acquisition unit 11b performs a process of acquiring the current angle of the first container 101 gripped by the robot arm 2. The angle of the first container 101 is an angle of a predetermined axis (for example, a central axis) of the first container 101 with respect to a reference axis (for example, a vertical axis) (see FIG. 8 ). In the present embodiment, the control device 1 appropriately controls the first axis 21 to the sixth axis 26 of the robot arm 2 when moving the first container 101 from the container storage area 104 to a position where water is poured into the second container 102. The first container 101 is conveyed by rotating the first container 101. However, in the present embodiment, the controller 1 fixes the angle without rotating the first shaft 21 to the fifth shaft 25 of the robot arm 2 when the liquid is poured from the first container 101 to the second container 102. Then, only the sixth shaft 26 of the robot arm 2 is rotated to tilt the first container 101. Therefore, the initial angle of the first container 101 in the liquid weighing process is determined by the angles of the first axis 21 to the sixth axis 26 at the end of the carrying process, and the current angle acquisition unit 11b determines the first axis 21 of the robot arm 2. ~ The initial angle of the first container 101 determined by the angle of the sixth axis 26 is acquired. Further, the angle of the first container 101 during the liquid weighing process can be regarded as an increase or decrease of the angle obtained by rotating the sixth axis of the robot arm 2 with respect to the initial angle. The current angle acquisition unit 11b acquires the angle of the sixth axis 26 of the robot arm 2 rotated in the liquid weighing process, and based on the initial angle and the angle of rotation of the sixth axis 26, the current angle of the first container 101 is calculated. By calculating the angle, the current angle of the first container 101 is acquired. The angle of the sixth axis 26 of the robot arm 2 may be calculated, for example, based on the control amount output to the robot arm 2, that is, the rotation amount or the rotation angle when the rotation of the sixth axis 26 is instructed. Alternatively, it may be acquired based on information fed back from the robot arm 2, for example.

液体量取得部11cは、計量器4にて計量された第2容器102の現時点における液体量を取得する処理を行う。計量器4が計量する液体の液体量は、グラム(g)もしくはキログラム(kg)等の単位で表される重さもしくは質量等、又は、リットル(L)若しくは立方メートル等の単位で表される容量もしくは体積等のいずれであってもよい。液体量取得部11cは、計量器4から送信される液体量の計量値を通信部13にて受信することで、第2容器102の液体量を取得する。 The liquid amount acquisition unit 11c performs a process of acquiring the liquid amount of the second container 102 at the present time measured by the measuring device 4. The liquid amount of the liquid measured by the measuring device 4 is a weight or mass expressed in units such as grams (g) or kilograms (kg), or a capacity expressed in units such as liters (L) or cubic meters. Alternatively, the volume or the like may be used. The liquid amount acquisition unit 11c acquires the liquid amount of the second container 102 by receiving the measured liquid amount value transmitted from the measuring device 4 at the communication unit 13.

なお画像取得部11aによる画像の取得、現角度取得部11bによる現時点の角度の取得、及び、液体量取得部11cによる液体量の取得は、所定の周期で繰り返し行われる。これらの情報を取得する周期は、例えば数ミリ秒〜数秒程度とすることができる。制御装置1は、例えばカメラ3による動画撮影のフレームレートに応じて定まる周期でこれらの情報を取得してもよく、フレームレートに応じて定まる周期よりも長い周期で情報を取得してもよい。また画像取得部11a、現角度取得部11b及び液体量取得部11cがそれぞれ異なる周期で情報の取得を行ってもよい。 The image acquisition by the image acquisition unit 11a, the current angle acquisition by the current angle acquisition unit 11b, and the liquid amount acquisition by the liquid amount acquisition unit 11c are repeatedly performed in a predetermined cycle. The period for acquiring these pieces of information can be, for example, several milliseconds to several seconds. The control device 1 may acquire these pieces of information at a cycle determined according to the frame rate of moving image shooting by the camera 3, or may acquire the information at a cycle longer than the cycle determined according to the frame rate. The image acquisition unit 11a, the current angle acquisition unit 11b, and the liquid amount acquisition unit 11c may acquire information at different cycles.

次角度取得部11dは、現在の時点の情報(最新の情報)に基づいて記憶部12の学習モデル5が予測する次の時点の情報(将来の情報)を取得する処理を行う。次角度取得部11dは、画像取得部11aが取得した第1容器101の画像と、現角度取得部11bが取得した現時点の第1容器101の角度と、液体量取得部11cが取得した現時点の第2容器102の液体量と、第2容器102へ注水する液体の目標量とを学習モデル5へ入力し、学習モデル5が出力する次の時点の第1容器101の角度を取得する。次角度取得部11dは、所定の周期で次角度の取得を繰り返し行っている。 The next angle acquisition unit 11d performs a process of acquiring information (future information) at the next time predicted by the learning model 5 of the storage unit 12 based on information at the current time (latest information). The next angle acquisition unit 11d includes the image of the first container 101 acquired by the image acquisition unit 11a, the current angle of the first container 101 acquired by the current angle acquisition unit 11b, and the current time acquired by the liquid amount acquisition unit 11c. The amount of liquid in the second container 102 and the target amount of liquid to be poured into the second container 102 are input to the learning model 5, and the angle of the first container 101 at the next time output by the learning model 5 is acquired. The next angle acquisition unit 11d repeatedly acquires the next angle at a predetermined cycle.

制御処理部11eは、ロボットアーム2の動作を制御する処理を行う。制御処理部11eは、例えばロボットアーム2の第1軸21〜第6軸26について、各軸の回転角度又は回転量等を指定した回転命令をロボットアーム2へ送信することにより、ロボットアーム2の動作を制御することができる。本実施の形態において制御処理部11eは、第1容器101から第2容器102へ注水する際に、第1軸21〜第5軸25を固定し、第6軸26の回転を制御することで第1容器101を傾けて注水を行う。このときに制御処理部11eは、次角度取得部11dが取得した次の時点の角度を第1容器101の角度の目標値として、ロボットアーム2の第6軸26の回転を制御する。なお制御処理部11eは、例えば第1容器101を容器置き場104から注水位置へ搬送する際には、第1軸21〜第6軸26を適宜に回転させてロボットアーム2に第1容器101の搬送を行わせてよい。 The control processing unit 11e performs processing for controlling the operation of the robot arm 2. The control processing unit 11e transmits a rotation command specifying the rotation angle or the rotation amount of each of the first axis 21 to the sixth axis 26 of the robot arm 2 to the robot arm 2 so that the robot arm 2 operates. The operation can be controlled. In the present embodiment, the control processing unit 11e fixes the first shaft 21 to the fifth shaft 25 and controls the rotation of the sixth shaft 26 when pouring water from the first container 101 to the second container 102. Water is injected by inclining the first container 101. At this time, the control processing unit 11e controls the rotation of the sixth shaft 26 of the robot arm 2 by using the angle at the next time point acquired by the next angle acquisition unit 11d as the target value of the angle of the first container 101. Note that, for example, when the first container 101 is conveyed from the container storage area 104 to the water pouring position, the control processing unit 11e appropriately rotates the first shaft 21 to the sixth shaft 26 to cause the robot arm 2 to move the first container 101 to the first container 101. It may be transported.

学習処理部11fは、液体秤量処理に用いる学習モデル5を機械学習する処理を行う。本実施の形態において学習処理部11fは、所定時点における第1容器101の画像、第1容器101の角度、第2容器102の液体量及び秤量の目標値と、所定時点の次の時点における第1容器101の画像、第1容器101の角度、第2容器102の液体量及び秤量の目標値とを対応付けた教師データを用いて、学習モデル5の機械学習を行う。教師データは、例えば本システムの設計者等により予め作成されてもよく、また例えばロボットアーム2にて手本となる動作を行わせ、このときに得られた画像及び角度等の情報に基づいて制御装置1が作成してもよい。 The learning processing unit 11f performs a process of machine learning the learning model 5 used for the liquid weighing process. In the present embodiment, the learning processing unit 11f uses the image of the first container 101, the angle of the first container 101, the target value of the liquid amount and the weighing amount of the second container 102 at a predetermined time point, and the target value at the next time point after the predetermined time point. Machine learning of the learning model 5 is performed using the teacher data in which the image of the one container 101, the angle of the first container 101, the liquid amount of the second container 102, and the target value of the weighing amount are associated with each other. The teacher data may be created in advance by, for example, a designer of the present system, or based on information such as an image and an angle obtained at this time by causing the robot arm 2 to perform a model operation. It may be created by the control device 1.

<第1容器の画像取得処理>
図4は、本実施の形態に係る制御装置1が行う第1容器101の画像取得処理を説明するための模式図である。本実施の形態に係る液体秤量システムでは、カメラ3が撮像した画像に基づいて制御装置1がロボットアーム2の動作を制御する。カメラ3は、作業台103の上で行われるロボットアーム2による作業の全体を撮影するよう、その設置位置及び撮影角度等が設定されている。カメラ3の撮影により得られる全体画像111には、ロボットアーム2の一部、第1容器101、第2容器102及び容器置き場104等が含まれている。
<Image acquisition process for the first container>
FIG. 4 is a schematic diagram for explaining the image acquisition processing of the first container 101 performed by the control device 1 according to the present embodiment. In the liquid weighing system according to the present embodiment, the control device 1 controls the operation of the robot arm 2 based on the image captured by the camera 3. The camera 3 has its installation position, photographing angle, etc. set so as to photograph the whole work performed by the robot arm 2 on the workbench 103. The entire image 111 obtained by photographing with the camera 3 includes a part of the robot arm 2, the first container 101, the second container 102, the container storage 104, and the like.

本実施の形態において、制御装置1がロボットアーム2の動作を制御して第1容器101から第2容器102への液体の注水を行う際に必要な画像、即ち液体秤量のための学習モデル5へ入力する画像は、第1容器101が映された部分的な画像である。本図においてはこの第1容器101が映された部分的な画像を、容器画像112として示している。容器画像112には、第1容器101に収容された液体の液面が映されている。全体画像111のうち、第1容器101の容器画像112以外の部分、例えば第2容器102又は容器置き場104等の部分は液体秤量処理には不要であるが、液体秤量処理以外の処理、例えば第1容器101の搬送処理等に用いられ得る。 In the present embodiment, the control device 1 controls the operation of the robot arm 2 to inject the liquid from the first container 101 to the second container 102, that is, an image required, that is, the learning model 5 for liquid weighing. The image input to is a partial image of the first container 101. In this figure, a partial image showing the first container 101 is shown as a container image 112. The container image 112 shows the liquid level of the liquid contained in the first container 101. Of the entire image 111, a portion other than the container image 112 of the first container 101, for example, a portion such as the second container 102 or the container storage 104 is unnecessary for the liquid weighing process, but a process other than the liquid weighing process, for example, the first container 101. It can be used for carrying processing of one container 101.

このため、本実施の形態に係る制御装置1は、カメラ3が撮影した全体画像111から、第1容器101が映された部分画像を容器画像112として抽出する画像処理を行う。制御装置1が全体画像111から容器画像112を抽出する方法は、例えば以下の2つの方法のいずれかが採用され得る。 Therefore, the control device 1 according to the present embodiment performs image processing of extracting, as the container image 112, the partial image showing the first container 101 from the entire image 111 captured by the camera 3. As a method for the control device 1 to extract the container image 112 from the entire image 111, for example, one of the following two methods can be adopted.

(容器画像抽出方法1)
制御装置1は、カメラ3が撮影した全体画像111に対して予め定められた領域の画像を抽出し、この抽出した画像を容器画像112とする。抽出する領域は、例えば本システムの設計者等により予め定められ、抽出する領域を定める座標等の情報が制御装置1に記憶される。又は、例えば本システムを利用する作業者等が制御装置1の操作部15を利用して容器画像112の抽出範囲を設定することが可能であってもよい。この抽出方法は、ロボットアーム2を利用した液体秤量処理において、ロボットアーム2が第1容器101を傾けて第2容器102へ注水を行う位置が固定されている場合に好適である。
(Container image extraction method 1)
The control device 1 extracts an image of a predetermined area from the entire image 111 taken by the camera 3, and sets the extracted image as the container image 112. The area to be extracted is predetermined by, for example, the designer of the present system, and information such as coordinates that define the area to be extracted is stored in the control device 1. Alternatively, for example, an operator using the present system may be able to set the extraction range of the container image 112 by using the operation unit 15 of the control device 1. This extraction method is suitable when the robot arm 2 tilts the first container 101 to inject water into the second container 102 in a liquid weighing process using the robot arm 2.

(容器画像抽出方法2)
制御装置1は、カメラ3が撮影した全体画像111から第1容器101を検出する処理を行う。制御装置1による第1容器101の検出処理には、どのような方法が採用されてもよい。画像に写された物体を検出する技術は既存のものであるため、詳細な説明は省略する。制御装置1は、例えば第1容器101の画像を用いて予め機械学習がなされた学習済の物体検出モデルを利用して、カメラ3が撮影した全体画像111に映る第1容器101を検出する処理を行うことができる。制御装置1は、検出した第1容器101を含む矩形領域を全体画像111から抽出し、容器画像112とすることができる。この抽出方法は、ロボットアーム2を利用した液体秤量処理において、ロボットアーム2が第1容器101を傾けて第2容器102へ注水を行う位置が変化する可能性がある場合に好適である。また制御装置1は、第1容器101の搬送処理等において物体検出を行う場合、この処理結果を流用してもよい。
(Container image extraction method 2)
The control device 1 performs a process of detecting the first container 101 from the entire image 111 captured by the camera 3. Any method may be adopted for the detection processing of the first container 101 by the control device 1. Since the technology for detecting an object imaged in an image is existing, detailed description thereof will be omitted. The control device 1 uses the learned object detection model that has been machine-learned in advance using the image of the first container 101 to detect the first container 101 in the entire image 111 captured by the camera 3. It can be performed. The control device 1 can extract a rectangular area including the detected first container 101 from the entire image 111 to form a container image 112. This extraction method is suitable when the robot arm 2 may tilt the first container 101 and change the position at which water is poured into the second container 102 in the liquid weighing process using the robot arm 2. Further, the control device 1 may divert the processing result when the object detection is performed in the transportation processing of the first container 101 or the like.

なお、制御装置1が行う容器画像112の抽出処理は上記の2つの方法に限らず、どのような方法で行われてもよい。制御装置1は、カメラ3が撮影した全体画像111から第1容器101が映された容器画像112を抽出し、抽出した容器画像112を学習モデル5への入力画像とする。また学習モデル5の学習処理において教師データとして用いる画像についても同様の方法で抽出された第1容器101の容器画像112が用いられる。また全体画像を撮影するカメラとは別に、第1容器101を撮影するカメラを設けてもよく、この場合には全体画像から容器画像を抽出する処理を制御装置1が行わなくてもよい。 The extraction process of the container image 112 performed by the control device 1 is not limited to the above two methods, and may be performed by any method. The control device 1 extracts the container image 112 showing the first container 101 from the whole image 111 captured by the camera 3, and uses the extracted container image 112 as an input image to the learning model 5. Further, the container image 112 of the first container 101 extracted by the same method is used for the image used as the teacher data in the learning process of the learning model 5. In addition to a camera that captures the entire image, a camera that captures the first container 101 may be provided, and in this case, the control device 1 does not have to perform the process of extracting the container image from the entire image.

<学習モデル>
図5は、本実施の形態に係る学習モデル5の構成を説明するための模式図である。本実施の形態に係る制御装置1が備える学習モデル5は、所定時点(時刻t)における第1容器101の画像(t)、第1容器101の角度(t)、第2容器102の液体量の計測値(t)及び秤量の目標値を入力情報として受け付け、所定時点の次の時点(時刻t+1)における第1容器101の画像(t+1)、第1容器101の角度(t+1)、第2容器102の液体量の計測値(t+1)及び秤量の目標値を出力する。なお目標値は、時刻t及び時刻t+1において同じ値である。
<Learning model>
FIG. 5 is a schematic diagram for explaining the configuration of the learning model 5 according to this embodiment. The learning model 5 included in the control device 1 according to the present embodiment includes an image (t) of the first container 101, an angle (t) of the first container 101, and a liquid amount of the second container 102 at a predetermined time (time t). The measured value (t) and the target value of the weighing are accepted as input information, and the image (t+1) of the first container 101, the angle (t+1) of the first container 101, and the second The measured value (t+1) of the liquid amount in the container 102 and the target value for weighing are output. The target value is the same value at time t and time t+1.

本実施の形態に係る学習モデル5は、例えばRNN(Recurrent Neural Network)モデル51、CAE(Convolutional Auto Encoder)のエンコーダ52及びCAEのデコーダ53を備えて構成されている。RNNモデル51は、時系列的なデータを学習することが可能な学習モデルであり、例えばMTRNN(Multi Timescale RNN)又はLSTM(Long Short Term Memory)等であってよい。ただし学習モデル5は、RNNモデル51ではなく、例えばARIMA(Auto Regressive Integrated Moving Average)又は1次元CNN(Convolutional Neural Network)等のモデルを用いて構成されてもよい。 The learning model 5 according to the present embodiment includes, for example, an RNN (Recurrent Neural Network) model 51, a CAE (Convolutional Auto Encoder) encoder 52, and a CAE decoder 53. The RNN model 51 is a learning model capable of learning time-series data, and may be, for example, MTRNN (Multi Timescale RNN) or LSTM (Long Short Term Memory). However, the learning model 5 may be configured using a model such as ARIMA (Auto Regressive Integrated Moving Average) or one-dimensional CNN (Convolutional Neural Network) instead of the RNN model 51.

CAEは、画像を圧縮及び復元する学習モデルである。ただし学習モデル5は、CAEではなく、例えばオートエンコーダ(Autoencoder)、RBM(Restricted Boltzmann Machine)又は主成分分析(Principal Component Analysis)等のモデルを用いて構成されてもよい。CAEのエンコーダ52は、入力された画像を圧縮して、入力画像の特徴を有する特徴量を出力する。CAEのデコーダ53は、入力された特徴量から復元した画像を出力する。 CAE is a learning model that compresses and restores images. However, the learning model 5 may be configured using a model such as an auto encoder (Autoencoder), RBM (Restricted Boltzmann Machine), or principal component analysis (Principal Component Analysis) instead of CAE. The CAE encoder 52 compresses the input image and outputs a feature amount having the feature of the input image. The CAE decoder 53 outputs an image restored from the input feature amount.

学習モデル5へ入力された所定時点(時刻t)の画像(t)はCAEのエンコーダ52へ入力され、エンコーダ52が出力する時刻tの特徴量(t)はRNNモデル51へ対応する角度(t)、計測値(t)及び目標値と共に入力される。これらの入力に対してRNNモデル51は、所定時点の次の時点(時刻t+1)の特徴量(t+1)、角度(t+1)、計測値(t+1)及び目標値を出力する。RNNモデル51が出力した次の時点の特徴量(t+1)はCAEのデコーダ53へ入力され、デコーダ53が出力する画像(t+1)が対応する角度(t+1)、計測値(t+1)及び目標値と共に学習モデル5の出力となる。 The image (t) at the predetermined time (time t) input to the learning model 5 is input to the CAE encoder 52, and the feature amount (t) output at the time t from the encoder 52 is the angle (t) corresponding to the RNN model 51. ), the measured value (t), and the target value. In response to these inputs, the RNN model 51 outputs the feature amount (t+1), the angle (t+1), the measured value (t+1), and the target value at the time point (time t+1) following the predetermined time point. The feature amount (t+1) at the next time output by the RNN model 51 is input to the decoder 53 of the CAE, and the image (t+1) output by the decoder 53 includes the corresponding angle (t+1), the measured value (t+1), and the target value. It becomes the output of the learning model 5.

なお制御装置1は、学習モデル5が出力する角度(t+1)を取得してロボットアーム2の動作を制御する。制御装置1がロボットアーム2にて液体秤量を行う際には、学習モデル5が出力する画像(t+1)、計測値(t+1)及び目標値は、利用されない情報である。このため、制御装置1がロボットアーム2にて液体秤量を行うために記憶部12に記憶しておく学習済の学習モデル5は、画像(t+1)、計測値(t+1)及び目標値を出力する機能を有していなくてもよい。ただしこれらの情報の出力機能は、学習モデル5の機械学習を行う際には必要である。 The control device 1 acquires the angle (t+1) output by the learning model 5 and controls the operation of the robot arm 2. When the controller 1 measures the liquid with the robot arm 2, the image (t+1), the measurement value (t+1), and the target value output by the learning model 5 are unused information. Therefore, the learned learning model 5 stored in the storage unit 12 for the control device 1 to measure the liquid by the robot arm 2 outputs the image (t+1), the measured value (t+1), and the target value. It may not have a function. However, the output function of these pieces of information is necessary when performing machine learning of the learning model 5.

<学習処理>
本実施の形態において学習モデル5の学習処理は、RNNモデル51と、CAEのエンコーダ52及びデコーダ53とで別に行われる。図6は、CAEのエンコーダ52及びデコーダ53の学習処理を説明するための模式図である。本実施の形態においてCAEのエンコーダ52及びデコーダ53は、それぞれ複数のニューロンを結合したニューラルネットワークの構成を有している。エンコーダ52は入力層へ入力される情報量より出力層から出力する情報量が少なく、デコーダ53は入力層へ入力される情報量より出力層から出力する情報量が多い。またエンコーダ52の入力層へ入力される情報とデコーダ53が出力層から出力する情報とは、画像であり、その情報量は等しい。エンコーダ52の出力層から出力する情報とデコーダ53の入力層へ入力される情報とは、画像の特徴量であり、その情報量は等しい。
<Learning process>
In the present embodiment, the learning process of the learning model 5 is separately performed by the RNN model 51 and the CAE encoder 52 and decoder 53. FIG. 6 is a schematic diagram for explaining the learning process of the CAE encoder 52 and the decoder 53. In this embodiment, the CAE encoder 52 and the decoder 53 each have a neural network configuration in which a plurality of neurons are connected. The encoder 52 outputs less information from the output layer than the information input to the input layer, and the decoder 53 outputs more information from the output layer than the information input to the input layer. The information input to the input layer of the encoder 52 and the information output from the output layer of the decoder 53 are images, and the amounts of information are the same. The information output from the output layer of the encoder 52 and the information input to the input layer of the decoder 53 are image feature amounts, and the information amounts are equal.

CAEのエンコーダ52及びデコーダ53の学習処理は、エンコーダ52が出力する情報をデコーダ53へ入力するよう、エンコーダ52及びデコーダ53を連結して行われる。学習処理に用いられる教師データは、入力画像と出力画像とを同じ画像としたものである。教師データは、カメラ3が撮影した時系列の容器画像112を用いて作成され得るが、どのような画像が用いられてもよい。制御装置1は、このような教師データを用いて、入力画像及び出力画像が一致するようエンコーダ52及びデコーダ53の機械学習を行う。これによりエンコーダ52及びデコーダ53は、画像を特徴量に圧縮し、この特徴量を元の画像に復元することができる。エンコーダ52が出力する特徴量は、入力された画像よりも少ない次元で、情報量を落とさずに元の画像の特徴を表したものとなる。 The learning process of the CAE encoder 52 and the decoder 53 is performed by connecting the encoder 52 and the decoder 53 so that the information output from the encoder 52 is input to the decoder 53. The teacher data used in the learning process is the same image as the input image and the output image. The teacher data can be created using the time-series container images 112 captured by the camera 3, but any image may be used. The control device 1 uses such teacher data to perform machine learning on the encoder 52 and the decoder 53 so that the input image and the output image match. As a result, the encoder 52 and the decoder 53 can compress the image into a feature amount and restore the feature amount to the original image. The feature amount output by the encoder 52 has a dimension smaller than that of the input image and represents the feature of the original image without reducing the information amount.

なお制御装置1は、例えば既存の学習済のCAEのエンコーダ及びデコーダを利用可能である場合等には、エンコーダ52及びデコーダ53の学習処理を行わなくてもよい。 Note that the control device 1 may not perform the learning process of the encoder 52 and the decoder 53, for example, when the existing learned CAE encoder and decoder can be used.

制御装置1は、CAEのエンコーダ52及びデコーダ53の学習処理を終えた後、学習済のエンコーダ52及びデコーダ53と未学習のRNNモデル51とを含む学習モデル5の学習処理を行う。このときに制御装置1が行う学習処理の対象は学習モデル5のRNNモデル51であり、エンコーダ52及びデコーダ53は学習処理の対象外である。即ち、制御装置1は、RNNモデル51のニューラルネットワークを構成するニューロンの値を学習処理によって更新するが、エンコーダ52及びデコーダ53のニューラルネットワークを構成するニューロンの値は更新しない。 After finishing the learning process of the CAE encoder 52 and the decoder 53, the control device 1 performs the learning process of the learning model 5 including the learned encoder 52 and decoder 53 and the unlearned RNN model 51. At this time, the target of the learning process performed by the control device 1 is the RNN model 51 of the learning model 5, and the encoder 52 and the decoder 53 are outside the target of the learning process. That is, the control device 1 updates the values of the neurons forming the neural network of the RNN model 51 by the learning process, but does not update the values of the neurons forming the neural network of the encoder 52 and the decoder 53.

図7は、学習モデル5の学習処理を説明するための模式図である。本実施の形態においては、学習モデル5の学習処理に用いる教師データを生成するために、制御装置1、ロボットアーム2、カメラ3及び計量器4等を用い、ロボットアーム2に第1容器101から第2容器102へ液体を注水する見本の動作を行わせる。この見本動作は、ユーザ(人間)がロボットアーム2を手動操作により動作させる。このときに制御装置1は、ロボットアーム2の見本動作をカメラ3で撮影すると共に、見本動作における第1容器101の角度(第6軸26の角度)と計量器4による第2容器102の液体量の計量結果とを時系列に取得し、画像、角度及び液体量のデータを記憶部12に記憶して蓄積する。 FIG. 7 is a schematic diagram for explaining the learning process of the learning model 5. In the present embodiment, in order to generate the teacher data used for the learning process of the learning model 5, the control device 1, the robot arm 2, the camera 3, the scale 4, and the like are used, and the robot arm 2 is connected to the first container 101 from the first container 101. The sample operation of pouring the liquid into the second container 102 is performed. In this sample operation, a user (human) operates the robot arm 2 manually. At this time, the control device 1 photographs the sample operation of the robot arm 2 with the camera 3, and at the same time, the angle of the first container 101 (the angle of the sixth axis 26) and the liquid of the second container 102 by the measuring device 4 in the sample operation. The measurement result of the amount is acquired in time series, and the data of the image, the angle, and the liquid amount are stored and stored in the storage unit 12.

なお、ユーザによるロボットアーム2の手動操作の方法はどのようなものであってもよい。例えば、ロボットアーム2と同様の構成を有する入力デバイスを用いる方法(マスタ−スレーブ方式)が採用され得る。この入力デバイスをユーザが掴んで動かし、ロボットアーム2の第1軸21〜第6軸26に対応する入力デバイスの各角度をセンサで検知し、検知した角度に応じてロボットアーム2を動作させて、第1容器101から第2容器102への注水の見本動作をロボットアーム2に行わせることができる。また例えば、ユーザの腕にセンサ等を装着し、ユーザの腕の動きをセンサで検知したロボットアーム2の動作に反映させて見本動作を行わせてもよい。 It should be noted that any method of manually operating the robot arm 2 by the user may be used. For example, a method using an input device having the same configuration as the robot arm 2 (master-slave method) can be adopted. The user grasps and moves this input device, detects each angle of the input device corresponding to the first axis 21 to the sixth axis 26 of the robot arm 2, and operates the robot arm 2 according to the detected angle. The robot arm 2 can be caused to perform a sample operation of water injection from the first container 101 to the second container 102. Further, for example, a sensor or the like may be attached to the arm of the user, and the sample operation may be performed by reflecting the movement of the user's arm in the operation of the robot arm 2 detected by the sensor.

また例えば、本実施の形態においてはロボットアーム2の第6軸26の回転のみ行って第1容器101から第2容器102への注水を行うため、第6軸26の角度のみを操作するダイヤルスイッチ又はスライドバー等の入力デバイスを制御装置1の操作部15に設けてもよい。ユーザは、操作部15のこれらの入力デバイスを操作してロボットアーム2の見本動作を行わせることができる。これらの入力デバイスは例えばハードウェアとして制御装置1に設けられてもよく、また例えばこれらの入力デバイスを模した画像を制御装置1が表示部34に表示し、タッチパネル等により回転操作等を受け付けてロボットアーム2の見本動作を行わせてもよい。また例えば、ロボットアーム2を操作するための装置、いわゆるティーチングペンダントを用いて、ロボットアーム2に見本動作を行わせてもよい。 Further, for example, in the present embodiment, since only the rotation of the sixth shaft 26 of the robot arm 2 is performed to inject water from the first container 101 to the second container 102, a dial switch that operates only the angle of the sixth shaft 26. Alternatively, an input device such as a slide bar may be provided in the operation unit 15 of the control device 1. The user can operate these input devices of the operation unit 15 to perform the sample operation of the robot arm 2. These input devices may be provided in the control device 1 as hardware, for example, and, for example, the control device 1 displays images simulating these input devices on the display unit 34, and accepts a rotation operation or the like by a touch panel or the like. The sample operation of the robot arm 2 may be performed. Further, for example, a device for operating the robot arm 2, that is, a so-called teaching pendant may be used to cause the robot arm 2 to perform a sample operation.

また例えば、ユーザが直接的にロボットアーム2を操作して見本動作を行わせるのではなく、予めユーザが設定した演算式又はテーブル等に応じて制御装置1がロボットアーム2に見本動作を行わせてもよい。ユーザは、時刻の入力に対して第6軸26の角度を出力する演算式又はテーブル等を予め作成して制御装置1に記憶させておくことで、制御装置1に自動で見本動作を行わせることができる。演算式又はテーブル等は、例えばロボットアーム2のシミュレーション等の結果に基づいて作成されてもよい。 Further, for example, the user does not directly operate the robot arm 2 to perform the sample operation, but the control device 1 causes the robot arm 2 to perform the sample operation according to an arithmetic expression or a table set in advance by the user. May be. The user makes the control device 1 automatically perform the sample operation by creating an arithmetic expression or a table or the like for outputting the angle of the sixth axis 26 in response to the input of time and storing it in the control device 1 in advance. be able to. The arithmetic expression, the table, or the like may be created based on the result of the simulation of the robot arm 2, for example.

ロボットアーム2に第1容器101から第2容器102へ注水する一連の見本動作を行わせることによって、制御装置1は、第1容器101の画像と、第1容器101の角度と、第2容器102の液体量の計測値との時系列的なデータを蓄積することができる。また一連の見本動作により第2容器102へ注水された最終的な液体量の計測値は、この注水動作による液体の秤量の目標値とみなすことができる。 By causing the robot arm 2 to perform a series of sample operations of pouring water from the first container 101 to the second container 102, the controller 1 causes the image of the first container 101, the angle of the first container 101, and the second container It is possible to accumulate time-series data with the measured value of the liquid amount 102. Further, the final measured value of the amount of liquid poured into the second container 102 by a series of sample operations can be regarded as the target value of the amount of liquid weighed by this water injection operation.

図7においては、所定時点(時刻t)における第1容器101の画像(t)と、第1容器101の角度(t)と、第2容器102の液体量の計測値(t)と、液体秤量の目標値とを1つのデータ(t)として図示している。ここでいう第1容器101の画像(t)は、容器画像112に相当する。制御装置1は、時刻tにおけるデータ(t)を入力とし、次の時刻t+1におけるデータ(t+1)を出力の正解値として対応付けた教師データを生成する。制御装置1は、一連の見本動作について蓄積したデータから、注水開始時点(t=0)から注水完了時点(t=Tmax)まで時系列のデータを順に取得して、各時点に対応する教師データを生成することができる。なお以下においては、時刻tのデータ(t)を入力とし、時刻t+1のデータを出力の正解値とした教師データを、教師データ(t)と表す。教師データ(t)は、t=0からt=Tmax−1まで生成される。 In FIG. 7, the image (t) of the first container 101 at a predetermined time (time t), the angle (t) of the first container 101, the measured value (t) of the liquid amount of the second container 102, and the liquid The target value of weighing is shown as one data (t). The image (t) of the first container 101 here corresponds to the container image 112. The control device 1 receives the data (t) at the time t, and generates the teacher data in which the data (t+1) at the next time t+1 is associated as the output correct value. The control device 1 sequentially acquires time-series data from the data accumulated for a series of sample operations from the water injection start time point (t=0) to the water injection completion time point (t=Tmax), and the teacher data corresponding to each time point. Can be generated. Note that in the following, the teacher data (t) will be referred to as teacher data in which the data (t) at the time t is input and the data at the time t+1 is used as an output correct value. Teacher data (t) is generated from t=0 to t=Tmax-1.

制御装置1は、生成した教師データ(t)をt=0からt=Tmax−1まで時系列順に読み出し、読み出した教師データ(t)を時系列順に学習モデル5に適用して機械学習を行うことによって、学習モデル5のRNNモデル51のパラメータを繰り返し更新する。全ての教師データを用いてRNNモデル51のパラメータの更新を行うことによって、制御装置1による学習モデル5の学習処理が完了する。なお本例では、1回分の見本動作のみから教師データを生成して学習処理を行う手順を説明しているが、制御装置1は、複数回分の見本動作から複数組の教師データを生成して学習モデル5の機械学習を行ってよい。 The control device 1 reads the generated teacher data (t) in time series from t=0 to t=Tmax-1, and applies the read teacher data (t) to the learning model 5 in time series to perform machine learning. By doing so, the parameters of the RNN model 51 of the learning model 5 are repeatedly updated. The learning process of the learning model 5 by the control device 1 is completed by updating the parameters of the RNN model 51 using all the teacher data. In this example, the procedure of generating the teacher data from only one sample operation and performing the learning process is described. However, the control device 1 generates a plurality of sets of teacher data from a plurality of sample operations. Machine learning of the learning model 5 may be performed.

また本実施の形態においては、教師データを生成するための見本動作に制限を設けている。図8及び図9は、見本動作の制限を説明するための模式図である。図8には、液体秤量処理における第1容器101の動きを図示してある。第1容器101は、ロボットアーム2により容器置き場104から液体秤量を行うための位置(秤量位置)へ搬送される。搬送位置へ搬送された直後の第1容器101の状態を図8において実線で図示しており、この状態を液体秤量における第1容器101の初期状態とし、初期状態における第1容器101の角度を0°とする。なお図8においては第1容器101が直立した状態を初期状態としているが、これは一例であり、第1容器101が傾いた状態が初期状態であってもよい。ただし第1容器101の初期状態は、収容された液体が外部へ漏れ出ることがない状態とする。 Further, in the present embodiment, the sample operation for generating the teacher data is limited. 8 and 9 are schematic diagrams for explaining the limitation of the sample operation. FIG. 8 illustrates the movement of the first container 101 in the liquid weighing process. The first container 101 is transported from the container storage area 104 by the robot arm 2 to a position (weighing position) for liquid weighing. The state of the first container 101 immediately after being transported to the transport position is shown by the solid line in FIG. 8. This state is the initial state of the first container 101 in liquid weighing, and the angle of the first container 101 in the initial state is Set to 0°. Note that, in FIG. 8, the state in which the first container 101 is upright is the initial state, but this is an example, and the state in which the first container 101 is inclined may be the initial state. However, the initial state of the first container 101 is such that the contained liquid does not leak outside.

ロボットアーム2に把持された第1容器101は第6軸26の回転により傾けられ、第1容器101から第2容器102への注水が行われる。図8には、第1容器101が第6軸26を中心に角度θだけ傾いた状態が図示されている。本実施の形態において第1容器101の角度θは、上記の初期状態を角度0°とし、初期状態に対して第1容器101を傾けた角度である。 The first container 101 gripped by the robot arm 2 is tilted by the rotation of the sixth shaft 26, and water is injected from the first container 101 to the second container 102. FIG. 8 illustrates a state in which the first container 101 is tilted by the angle θ about the sixth axis 26. In the present embodiment, the angle θ of the first container 101 is an angle in which the initial state is 0° and the first container 101 is inclined with respect to the initial state.

図9には、見本動作における第1容器101の角度の変化をグラフとして示している。本グラフの横軸は時刻tであり、縦軸は角度θである。見本動作においては、所定角度に達するまで第1容器101の角度θを単調増加させ、その後に第1容器101の角度を所定角度から角度0°まで単調減少させる。本実施の形態においては、学習モデル5の教師データとして、第1容器101の角度が始めに単調増加し、その後に単調減少して注水動作を終える見本動作から得られるデータを用いる。このような学習データを用いて学習モデルの学習処理を行うことによって、学習された学習モデル5を用いるロボットアーム2の液体秤量を安定して行うことができる。 FIG. 9 shows a graph of changes in the angle of the first container 101 in the sample operation. The horizontal axis of this graph is the time t, and the vertical axis is the angle θ. In the sample operation, the angle θ of the first container 101 is monotonically increased until the predetermined angle is reached, and then the angle of the first container 101 is monotonically decreased from the predetermined angle to the angle 0°. In the present embodiment, as the teacher data of the learning model 5, data obtained from a sample operation in which the angle of the first container 101 first monotonously increases and then monotonically decreases and then the water injection operation ends is used. By performing the learning process of the learning model using such learning data, the liquid weighing of the robot arm 2 using the learned model 5 learned can be stably performed.

図10は、本実施の形態に係る制御装置1が行う教師データ生成処理の手順を示すフローチャートである。なお本フローチャートにおいては変数tを用いているが、この変数tは例えば制御装置1の処理部11が有するレジスタ等の記憶領域を用いて実現され得る。本実施の形態に係る制御装置1の処理部11は、例えばユーザの手動操作に応じてロボットアーム2に液体秤量の見本動作を行わせる(ステップS1)。処理部11は、ロボットアーム2が見本動作を行っている際にカメラ3が撮影した全体画像111から抽出した第1容器101の画像(容器画像112)、第1容器101の角度及び計量器4の計測値等のデータを取得して記憶部12に記憶し、データを蓄積する(ステップS2)。処理部11は、液体秤量の見本動作が終了したか否かを判定する(ステップS3)。見本動作が終了していない場合(S3:NO)、処理部11は、ステップS1へ処理を戻し、見本動作及びデータ蓄積を継続して行う。 FIG. 10 is a flowchart showing the procedure of the teacher data generation process performed by the control device 1 according to the present embodiment. Although the variable t is used in this flowchart, the variable t can be realized by using a storage area such as a register included in the processing unit 11 of the control device 1, for example. The processing unit 11 of the control device 1 according to the present embodiment causes the robot arm 2 to perform a sample operation of liquid weighing in response to a manual operation by the user (step S1). The processing unit 11 includes an image of the first container 101 (container image 112) extracted from the entire image 111 captured by the camera 3 while the robot arm 2 is performing the sample operation, the angle of the first container 101, and the weighing device 4. The data such as the measured value is acquired and stored in the storage unit 12, and the data is accumulated (step S2). The processing unit 11 determines whether or not the sample operation of the liquid weighing is completed (step S3). When the sample operation is not completed (S3: NO), the processing unit 11 returns the process to step S1 and continues the sample operation and the data accumulation.

見本動作が終了した場合(S3:YES)、処理部11は、変数tの値を0に初期化する(ステップS4)。処理部11は、蓄積したデータの中から、所定の時刻tのデータを取得する(ステップS5)。また処理部11は、蓄積したデータの中から、次の時刻t+1のデータを取得する(ステップS6)。処理部11は、ステップS5にて取得した時刻tのデータを入力とし、ステップS6にて取得した時刻t+1のデータを出力の正解値として対応付けた教師データを生成する(ステップS7)。 When the sample operation is completed (S3: YES), the processing unit 11 initializes the value of the variable t to 0 (step S4). The processing unit 11 acquires the data at the predetermined time t from the accumulated data (step S5). Further, the processing unit 11 acquires the data at the next time t+1 from the accumulated data (step S6). The processing unit 11 receives the data at time t acquired in step S5 as input, and generates teacher data in which the data at time t+1 acquired in step S6 is associated as an output correct value (step S7).

なお、ステップS5にて取得する時刻tのデータには、時刻tにおける第1容器101の画像(t)と、時刻tにおける第1容器の角度(t)と、時刻tにおける第2容器102の液体量の計測値(t)と、液体秤量の目標値とが含まれる。またステップS6にて取得する時刻t+1のデータには、時刻t+1における第1容器101の画像(t+1)と、時刻t+1における第1容器の角度(t+1)と、時刻t+1における第2容器102の液体量の計測値(t+1)と、液体秤量の目標値とが含まれる。両データの目標値は、見本動作の終了時点における第2容器102の液体量の計測値(Tmax)が設定される。 The data at time t acquired in step S5 includes the image (t) of the first container 101 at time t, the angle (t) of the first container at time t, and the second container 102 at time t. The measured value (t) of the liquid amount and the target value of liquid weighing are included. The data at time t+1 acquired in step S6 includes the image (t+1) of the first container 101 at time t+1, the angle (t+1) of the first container at time t+1, and the liquid in the second container 102 at time t+1. The measured value of volume (t+1) and the target value of liquid weighing are included. The target value of both data is set to the measured value (Tmax) of the liquid amount in the second container 102 at the end of the sample operation.

その後、処理部11は、変数tの値に1を加える(ステップS8)。処理部11は、変数tの値が最大値Tmaxであるか否かを判定する(ステップS9)。変数tの値がTmaxでない場合(S9:NO)、処理部11は、ステップS5へ処理を戻し、教師データの生成を継続する。変数tの値がTmaxである場合(S9:YES)、処理部11は、教師データ生成処理を終了する。 After that, the processing unit 11 adds 1 to the value of the variable t (step S8). The processing unit 11 determines whether or not the value of the variable t is the maximum value Tmax (step S9). When the value of the variable t is not Tmax (S9: NO), the processing unit 11 returns the process to step S5 and continues the generation of the teacher data. When the value of the variable t is Tmax (S9: YES), the processing unit 11 ends the teacher data generation process.

図11は、本実施の形態に係る制御装置1が行う学習モデル5の学習処理の手順を示すフローチャートである。なお本フローチャートにおいては変数tを用いているが、この変数tは例えば制御装置1の処理部11が有するレジスタ等の記憶領域を用いて実現され得る。本実施の形態に係る制御装置1の処理部11の学習処理部11fは、まず変数tの値を0に初期化する(ステップS21)。学習処理部11fは、所定の時刻tに対応する教師データを記憶部12から取得する(ステップS22)。学習処理部11fは、取得した教師データに含まれる時刻tの画像、角度、計測値及び目標値を学習モデル5の入力とし、時刻t+1の画像、角度、計測値及び目標値を学習モデル5の出力の正解値として、学習モデル5がこの入出力関係を満たすようにRNNモデル51のパラメータを更新する(ステップS23)。なお、RNNモデル51のパラメータの更新は、複数の教師データに対してまとめて行われてもよい。 FIG. 11 is a flowchart showing the procedure of the learning process of the learning model 5 performed by the control device 1 according to the present embodiment. Although the variable t is used in this flowchart, the variable t can be realized by using a storage area such as a register included in the processing unit 11 of the control device 1, for example. The learning processing unit 11f of the processing unit 11 of the control device 1 according to the present embodiment first initializes the value of the variable t to 0 (step S21). The learning processing unit 11f acquires the teacher data corresponding to the predetermined time t from the storage unit 12 (step S22). The learning processing unit 11f uses the image at time t, the angle, the measured value, and the target value included in the acquired teacher data as the input of the learning model 5, and sets the image at the time t+1, the angle, the measured value, and the target value of the learning model 5. As the correct value of the output, the learning model 5 updates the parameters of the RNN model 51 so that the input/output relationship is satisfied (step S23). The parameters of the RNN model 51 may be updated collectively for a plurality of teacher data.

その後、学習処理部11fは、変数tの値に1を加える(ステップS24)。学習処理部11fは、変数tの値が最大値Tmaxであるか否かを判定する(ステップS25)。変数tの値がTmaxでない場合(S25:NO)、学習処理部11fは、ステップS22へ処理を戻し、学習モデル5の学習を継続する。変数tの値がTmaxである場合(S25:YES)、処理部11は、学習処理を終了する。 After that, the learning processing unit 11f adds 1 to the value of the variable t (step S24). The learning processing unit 11f determines whether the value of the variable t is the maximum value Tmax (step S25). When the value of the variable t is not Tmax (S25: NO), the learning processing unit 11f returns the process to step S22 and continues the learning of the learning model 5. When the value of the variable t is Tmax (S25: YES), the processing unit 11 ends the learning process.

<液体秤量処理>
学習モデル5の学習処理が完了した後、制御装置1は、学習済の学習モデル5を利用して、ロボットアーム2による液体の秤量処理を行うことができる。本実施の形態においては、作業台103の容器置き場104に第1容器101が置かれ、計量器4の上に第2容器102が置かれた状態から、ロボットアーム2が第1容器101を把持して所定の秤量位置へ搬送し、第1容器101を傾けて第2容器102へ注水を行い、目標値の注水を完了してロボットアーム2が第1容器101を容器置き場104へ置くまでの動作を説明する。なお秤量の目標値は、例えば制御装置1の操作部15を利用してユーザが予め設定しているものとする。
<Liquid weighing processing>
After the learning process of the learning model 5 is completed, the control device 1 can use the learned learning model 5 to perform the liquid weighing process by the robot arm 2. In the present embodiment, the robot arm 2 grips the first container 101 from the state where the first container 101 is placed in the container storage area 104 of the work table 103 and the second container 102 is placed on the weighing device 4. Then, the first container 101 is tilted to inject water into the second container 102 until the target value of water is completed and the robot arm 2 places the first container 101 in the container storage area 104. The operation will be described. Note that the target value of the weighing is assumed to be preset by the user using the operation unit 15 of the control device 1, for example.

図12は、本実施の形態に係る制御装置1が行う液体秤量処理の概略手順を示すフローチャートである。本実施の形態に係る制御装置1の処理部11は、まず、ロボットアーム2の動作を制御して、作業台103の容器置き場104に置かれた第1容器101をロボットアーム2に把持させる(ステップS31)。ロボットアーム2が第1容器101を把持する動作の制御は、どのような方法で行われてもよい。 FIG. 12 is a flowchart showing a schematic procedure of the liquid weighing process performed by the control device 1 according to the present embodiment. The processing unit 11 of the control device 1 according to the present embodiment first controls the operation of the robot arm 2 so that the robot arm 2 holds the first container 101 placed in the container storage area 104 of the workbench 103 ( Step S31). The operation of the robot arm 2 for gripping the first container 101 may be controlled by any method.

次いで処理部11は、ステップS31にて把持した第1容器101を、液体の秤量を行う秤量位置へと搬送する(ステップS32)。ロボットアーム2による第1容器101の搬送の制御は、どのような方法で行われてもよい。また搬送動作の終点である秤量位置は、例えば予め設定された固定位置であってもよく、また例えば第2容器102の位置等に応じて変動する位置であってもよい。 Next, the processing unit 11 conveys the first container 101 held in step S31 to the weighing position where the liquid is weighed (step S32). The transfer of the first container 101 by the robot arm 2 may be controlled by any method. The weighing position, which is the end point of the transport operation, may be, for example, a preset fixed position, or may be a position that varies depending on, for example, the position of the second container 102.

次いで処理部11は、第1容器101に収容された液体を第2容器102へ注水する動作を行い、所定量の液体を秤量する秤量処理を行う(ステップS33)。秤量処理において処理部11は、ロボットアーム2の第6軸26のみを回転させて第1容器101を傾け、第1容器101から第2容器102への注水を行う。秤量処理の詳細については後述する。 Next, the processing unit 11 performs an operation of injecting the liquid contained in the first container 101 into the second container 102, and performs a weighing process for weighing a predetermined amount of liquid (step S33). In the weighing process, the processing unit 11 rotates only the sixth shaft 26 of the robot arm 2 to tilt the first container 101 and injects water from the first container 101 into the second container 102. Details of the weighing process will be described later.

所定量の液体を第1容器101から第2容器102へ注水し、秤量処理を完了した後、処理部11は、ロボットアーム2を制御して第1容器101を秤量位置から容器置き場104へ搬送し(ステップS34)、処理を終了する。ロボットアーム2による第1容器101の搬送の制御は、どのような方法で行われてもよい。また秤量処理を終えた後の第1容器101の搬送先は、最初に第1容器101が置かれていた容器置き場104とは別の場所であってもよい。 After pouring a predetermined amount of liquid from the first container 101 into the second container 102 and completing the weighing process, the processing unit 11 controls the robot arm 2 to transfer the first container 101 from the weighing position to the container storage area 104. Then (step S34), the process ends. The transfer of the first container 101 by the robot arm 2 may be controlled by any method. The destination of the first container 101 after the weighing process may be a different place from the container storage area 104 where the first container 101 was initially placed.

図13は、本実施の形態に係る制御装置1が行う液体秤量処理の詳細手順を示すフローチャートであり、図12のステップS33にて行われる秤量処理の詳細手順である。本実施の形態に係る制御装置1の処理部11の画像取得部11aは、カメラ3が撮影した第1容器101の画像を取得する(ステップS41)。なおステップS41にて取得する画像は、全体画像から第1容器101の部分を抽出した容器画像である。また処理部11の現角度取得部11bは、ロボットアーム2の第1軸21から第6軸26までの角度に基づいて、第1容器101の角度を取得する(ステップS42)。また処理部11の液体量取得部11cは、計量器4が計量する第2容器102の液体量の計測値を取得する(ステップS43)。 FIG. 13 is a flowchart showing a detailed procedure of the liquid weighing process performed by the control device 1 according to the present embodiment, which is a detailed procedure of the weighing process performed in step S33 of FIG. The image acquisition unit 11a of the processing unit 11 of the control device 1 according to the present embodiment acquires the image of the first container 101 captured by the camera 3 (step S41). The image acquired in step S41 is a container image obtained by extracting the portion of the first container 101 from the entire image. Further, the current angle acquisition unit 11b of the processing unit 11 acquires the angle of the first container 101 based on the angles from the first axis 21 to the sixth axis 26 of the robot arm 2 (step S42). Further, the liquid amount acquisition unit 11c of the processing unit 11 acquires the measured value of the liquid amount of the second container 102 measured by the measuring device 4 (step S43).

処理部11の次角度取得部11dは、ステップS41にて取得した画像と、ステップS42にて取得した角度と、ステップS43にて取得した液体量の計測値と、ユーザが予め設定した秤量の目標値とを含む現時点のデータを、記憶部12に記憶された学習済の学習モデル5へ入力する(ステップS44)。次角度取得部11dは、ステップS44におけるデータの入力に応じて学習モデル5が出力するデータのうち、第1容器101の次の時点の角度を取得する(ステップS45)。 The next angle acquisition unit 11d of the processing unit 11 includes the image acquired in step S41, the angle acquired in step S42, the measured value of the liquid amount acquired in step S43, and the weighing target preset by the user. The current data including the value is input to the learned learning model 5 stored in the storage unit 12 (step S44). The next angle acquisition unit 11d acquires the angle of the next time point of the first container 101 from the data output by the learning model 5 in response to the data input in step S44 (step S45).

処理部11の制御処理部11eは、ステップS45にて取得した次の時点の角度が予め設定された上限角度以下であるか否かを判定する(ステップS46)。次の時点の角度が上限角度以下である場合(S47:YES)、制御処理部11eは、ステップS45にて取得した次の時点の角度に第1容器101の角度を変化させるべく、ロボットアーム2の第6軸26の回転を制御し(ステップS47)、ステップS49へ処理を進める。次の時点の角度が上限角度を超える場合(S47:NO)、制御処理部11eは、第1容器101の現時点の角度を維持すべく、ロボットアーム2の第6軸26の角度を維持し(ステップS48)、ステップS49へ処理を進める。 The control processing unit 11e of the processing unit 11 determines whether or not the angle at the next time point acquired in step S45 is less than or equal to a preset upper limit angle (step S46). When the angle at the next time is less than or equal to the upper limit angle (S47: YES), the control processing unit 11e changes the angle of the first container 101 to the angle at the next time acquired in step S45. The rotation of the sixth shaft 26 is controlled (step S47), and the process proceeds to step S49. When the angle at the next time point exceeds the upper limit angle (S47: NO), the control processing unit 11e maintains the angle of the sixth axis 26 of the robot arm 2 in order to maintain the current angle of the first container 101 (( The process proceeds to step S48) and step S49.

次いで処理部11は、液体秤量の動作が終了したか否かを判定する(ステップS49)。液体秤量の処理が終了したか否かの判定方法は、どのようなものであってもよい。例えば処理部11は、第1容器101の角度が初期状態の角度(即ち角度0°)に戻ったことを液体秤量の終了と判断することができる。また例えば処理部11は、第1容器101からの液体の吐出が終了したか否かをカメラ3が撮影した画像に基づいて判断し、液体秤量の終了を判断してもよい。液体秤量の処理が終了していない場合(S49:NO)、処理部11は、ステップS41へ処理を戻す。液体秤量の処理が終了した場合(S49:YES)、処理部11は、図12に示したフローチャートへ処理を戻す。 Next, the processing unit 11 determines whether or not the liquid weighing operation is completed (step S49). Any method may be used to determine whether or not the liquid weighing process is completed. For example, the processing unit 11 can determine that the liquid weighing is completed when the angle of the first container 101 returns to the initial angle (that is, the angle of 0°). Further, for example, the processing unit 11 may determine whether or not the discharge of the liquid from the first container 101 has ended, based on the image captured by the camera 3, to determine the end of liquid weighing. When the liquid weighing process is not completed (S49: NO), the processing unit 11 returns the process to step S41. When the liquid weighing process is completed (S49: YES), the processing unit 11 returns the process to the flowchart shown in FIG.

<まとめ>
以上の構成の本実施の形態に係る液体秤量システムは、ロボットアーム2が保持する第1容器101から第2容器102へ所定量の液体を注水することによって液体の秤量を行う。ロボットアーム2の動作を制御する制御装置1は、第1時点(時刻t)における第1容器101の画像、第1容器101の角度及び第2容器102の液体量及び秤量の目標値を入力として受け付け、第2時点(時刻t+1)における第1容器101の角度を出力するよう機械学習がなされた学習モデル5を記憶部12に記憶している。制御装置1は、現時点(第1時点)にてカメラ3が撮影した第1容器101の画像を取得し、現時点の第1容器101の角度を取得し、現時点の第2容器102の液体量を取得する。制御装置1は、取得した画像、角度及び液体量を学習モデル5へ入力し、学習モデル5が出力する次の時点(第2時点)の第1容器101の角度を取得する。制御装置1は、取得した次の時点の角度に応じて、ロボットアーム2が保持する第1容器101の角度を制御する。これにより制御装置1は、ロボットアーム2を制御して所定量の液体を第1容器101から第2容器102へ注水することができ、ロボットアーム2を利用した液体の秤量を精度よく行うことが期待できる。
<Summary>
The liquid weighing system according to the present embodiment having the above configuration measures the liquid by injecting a predetermined amount of the liquid from the first container 101 held by the robot arm 2 into the second container 102. The control device 1 that controls the operation of the robot arm 2 receives the image of the first container 101 at the first time point (time t), the angle of the first container 101, and the target values of the liquid amount and the weighing amount of the second container 102 as inputs. The learning model 5, which has been machine-accepted and output to the angle of the first container 101 at the second time point (time t+1), is stored in the storage unit 12. The control device 1 acquires an image of the first container 101 captured by the camera 3 at the current time (first time), acquires the angle of the first container 101 at the current time, and determines the liquid amount of the second container 102 at the current time. get. The control device 1 inputs the acquired image, angle, and liquid amount into the learning model 5, and acquires the angle of the first container 101 at the next time point (second time point) output by the learning model 5. The control device 1 controls the angle of the first container 101 held by the robot arm 2 according to the acquired angle at the next time. As a result, the control device 1 can control the robot arm 2 to inject a predetermined amount of liquid from the first container 101 into the second container 102, and accurately measure the liquid using the robot arm 2. Can be expected.

また本実施の形態に係る制御装置1は、第1容器101を傾けて第2容器102へ注水する際に、ロボットアーム2の第1軸21〜第5軸25を固定し、第1容器101の保持位置に最も近い第6軸26の回転を制御して、第1容器101の角度を制御する。制御装置1は、第1容器101について角度以外のパラメータ(例えば上下方向、左右方向又は前後方向等の位置)を変化させずに、第1容器101の角度のみを変化させて第2容器102へ注水を行うことができる。これにより制御装置1によるロボットアーム2の制御の容易化、学習モデル5の学習の容易化等が期待できる。 Further, the control device 1 according to the present embodiment fixes the first shaft 21 to the fifth shaft 25 of the robot arm 2 when the first container 101 is tilted and water is poured into the second container 102, and the first container 101 is fixed. The rotation of the sixth shaft 26 closest to the holding position of is controlled to control the angle of the first container 101. The control device 1 changes only the angle of the first container 101 to the second container 102 without changing the parameters other than the angle (for example, the position in the vertical direction, the horizontal direction, the front-back direction, etc.) of the first container 101. Water injection can be performed. This can be expected to facilitate the control of the robot arm 2 by the control device 1 and the learning model 5.

また本実施の形態に係る制御装置1は、ロボットアーム2、第1容器101、第2容器102、作業台103及び容器置き場104等を含むようにカメラ3が撮影した全体画像から、第1容器101の画像を取得して学習モデル5への入力データとする。制御装置1は、全体画像から所定の領域を容器画像として抽出してもよく、全体画像に映された第1容器101を検出して容器画像を抽出してもよい。これにより、学習される画像に含まれるノイズ(第1容器101以外の画像)が減少し、学習モデル5の学習の精度が向上する。結果として、学習モデル5を用いる第1容器101の角度の制御を精度よく行うことが期待できる。 Further, the control device 1 according to the present embodiment uses the first container based on the entire image taken by the camera 3 so as to include the robot arm 2, the first container 101, the second container 102, the work table 103, the container storage space 104, and the like. The image 101 is acquired and used as input data to the learning model 5. The control device 1 may extract a predetermined region from the entire image as a container image, or may detect the first container 101 shown in the entire image and extract the container image. As a result, noise (images other than the first container 101) included in the learned image is reduced, and the learning accuracy of the learning model 5 is improved. As a result, it can be expected that the angle of the first container 101 using the learning model 5 is accurately controlled.

また本実施の形態においては、制御装置1がロボットアーム2を制御して第1容器101を傾ける際に、第1容器101の角度に上限角度が定められており、この上限角度を超えない範囲で第1容器101の角度を制御装置1が制御する。これにより第1容器101の角度が大きくなりすぎることを防止でき、秤量動作を安定して行うことが期待できる。 Further, in the present embodiment, when the control device 1 controls the robot arm 2 and tilts the first container 101, the upper limit angle is set for the angle of the first container 101, and the upper limit angle is not exceeded. The controller 1 controls the angle of the first container 101. This can prevent the angle of the first container 101 from becoming too large, and can be expected to perform the weighing operation stably.

また本実施の形態においては、カメラ3が撮影する画像に、第1容器101に収容された液体の液面の画像を含めるよう、カメラ3の位置及び撮影角度等が設定される。これにより、第1容器101に収容された液体の粘度等の情報を含む学習モデル5の学習処理が可能となり、液体秤量の精度の向上が期待できる。 Further, in the present embodiment, the position, the shooting angle, etc. of the camera 3 are set so that the image captured by the camera 3 includes the image of the liquid surface of the liquid contained in the first container 101. As a result, the learning process of the learning model 5 including the information such as the viscosity of the liquid contained in the first container 101 becomes possible, and the accuracy of liquid weighing can be expected to improve.

また本実施の形態においては、学習モデル5の学習処理に用いる教師データを、ロボットアーム2の見本動作により得られるデータを基に生成する。見本動作においては、ロボットアーム2が第1容器101の角度を基準角度から所定角度へ単調増加させた後、所定角度から基準角度へ単調減少させることで第1容器101から第2容器102への注水を完了させる。この見本動作における時系列の画像、角度及び液体量に基づいて、制御装置1が教師データを生成する。この教師データを用いて機械学習がなされた学習モデル5を用いることにより、制御装置1は、第1容器101の角度を基準角度から所定角度へ単調増加させた後、所定角度から基準角度へ単調減少させることで注水を完了させるよう、ロボットアーム2の動作を制御することができる。 Further, in the present embodiment, the teacher data used for the learning process of the learning model 5 is generated based on the data obtained by the sample operation of the robot arm 2. In the sample operation, the robot arm 2 monotonically increases the angle of the first container 101 from the reference angle to the predetermined angle, and then monotonically decreases from the predetermined angle to the reference angle to change the first container 101 to the second container 102. Complete water injection. The control device 1 generates teacher data based on the time-series image, the angle, and the liquid amount in this sample operation. By using the learning model 5 that is machine-learned using this teacher data, the control device 1 monotonically increases the angle of the first container 101 from the reference angle to the predetermined angle, and then monotonically increases from the predetermined angle to the reference angle. The operation of the robot arm 2 can be controlled so that the water injection is completed by decreasing the amount.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above meaning but by the scope of the claims, and is intended to include meanings equivalent to the scope of the claims and all modifications within the scope.

1 制御装置
2 ロボットアーム
3 カメラ
4 計量器
5 学習モデル
11 処理部
11a 画像取得部
11b 現角度取得部
11c 液体量取得部
11d 次角度取得部
11e 制御処理部
11f 学習処理部
12 記憶部
13 通信部
14 表示部
15 操作部
20a 第1ベース部
20b 第2ベース部
20c 第1アーム部
20d 第2アーム部
20e 第3アーム部
21 第1軸
22 第2軸
23 第3軸
24 第4軸
25 第5軸
26 第6軸
51 RNNモデル
52 エンコーダ
53 デコーダ
99 記録媒体
101 第1容器
102 第2容器
103 作業台
104 容器置き場
111 全体画像
112 容器画像
DESCRIPTION OF SYMBOLS 1 Control device 2 Robot arm 3 Camera 4 Measuring instrument 5 Learning model 11 Processing part 11a Image acquisition part 11b Current angle acquisition part 11c Liquid amount acquisition part 11d Next angle acquisition part 11e Control processing part 11f Learning processing part 12 Storage part 13 Communication part 14 display part 15 operation part 20a 1st base part 20b 2nd base part 20c 1st arm part 20d 2nd arm part 20e 3rd arm part 21 1st axis 22 2nd axis 23 3rd axis 24 4th axis 25 5th Axis 26 Sixth Axis 51 RNN Model 52 Encoder 53 Decoder 99 Recording Medium 101 First Container 102 Second Container 103 Workbench 104 Container Storage Area 111 Overall Image 112 Container Image

Claims (14)

ロボットアームが保持する第1容器から第2容器へ所定量の液体を注水する液体秤量方法であって、
第1時点における前記第1容器の画像、前記第1容器の角度及び前記第2容器の液体量を入力として受け付け、第2時点における前記第1容器の角度を出力するよう機械学習された学習モデルを用い、
前記ロボットアームの動作を制御する制御装置が、
第1時点に撮影された前記第1容器を含む画像を取得し、
前記第1時点の前記第1容器の角度を取得し、
前記第1時点の前記第2容器の液体量を取得し、
取得した画像、角度及び液体量を前記学習モデルへ入力して、前記学習モデルが出力する第2時点の角度を取得し、
取得した前記第2時点の角度に応じて、前記ロボットアームが保持する前記第1容器の角度を制御する、
液体秤量方法。
A liquid weighing method for pouring a predetermined amount of liquid from a first container held by a robot arm into a second container,
A learning model machine-learned to accept the image of the first container at the first time point, the angle of the first container, and the liquid amount of the second container as inputs, and output the angle of the first container at the second time point. Using
A control device for controlling the operation of the robot arm,
Acquiring an image including the first container taken at a first time point,
Obtaining the angle of the first container at the first time point,
Obtaining the liquid amount of the second container at the first time point,
The acquired image, angle, and liquid amount are input to the learning model to acquire the angle at the second time point output by the learning model,
Controlling the angle of the first container held by the robot arm according to the acquired angle at the second time point;
Liquid weighing method.
前記制御装置が、前記第1容器について角度以外のパラメータを変化させないように、前記ロボットアームの動作を制御する、
請求項1に記載の液体秤量方法。
The control device controls the operation of the robot arm such that parameters other than the angle of the first container are not changed.
The liquid weighing method according to claim 1.
前記ロボットアームは、前記制御装置が制御可能な回転軸を複数有し、
前記制御装置は、複数の回転軸のうちの1つの回転軸の回転を制御し、当該回転軸以外の回転軸を固定して、前記ロボットアームの動作を制御する、
請求項2に記載の液体秤量方法。
The robot arm has a plurality of rotation axes that can be controlled by the control device,
The control device controls the rotation of one of the plurality of rotation shafts, fixes the rotation shafts other than the rotation shaft, and controls the operation of the robot arm.
The liquid weighing method according to claim 2.
前記制御装置は、前記第1容器の保持位置に最も近い1つの回転軸の回転を制御して、前記ロボットアームが保持する前記第1容器の角度を制御する、
請求項3に記載の液体秤量方法。
The control device controls rotation of one rotation shaft closest to a holding position of the first container to control an angle of the first container held by the robot arm,
The liquid weighing method according to claim 3.
前記制御装置が、前記ロボットアーム、前記第1容器及び前記第2容器を含んで撮影された全体画像から、前記第1容器の画像を取得して前記学習モデルへ入力する、
請求項1から請求項4までのいずれか1つに記載の液体秤量方法。
The control device acquires an image of the first container from an entire image captured including the robot arm, the first container, and the second container, and inputs the image to the learning model.
The liquid weighing method according to any one of claims 1 to 4.
前記制御装置が、
前記全体画像から前記第1容器を検出し、
検出した前記第1容器の画像を前記全体画像から取得する、
請求項5に記載の液体秤量方法。
The control device is
Detecting the first container from the overall image,
Acquiring an image of the detected first container from the overall image,
The liquid weighing method according to claim 5.
前記第1容器の角度に上限が設定されている、
請求項1から請求項6までのいずれか1つに記載の液体秤量方法。
An upper limit is set for the angle of the first container,
The liquid weighing method according to any one of claims 1 to 6.
前記第1容器を含む画像には、前記第1容器に収容された液体の液面の画像を含む、
請求項1から請求項7までのいずれか1つに記載の液体秤量方法。
The image including the first container includes an image of the liquid surface of the liquid contained in the first container,
The liquid weighing method according to any one of claims 1 to 7.
前記制御装置が、前記第1容器の角度を基準角度から所定角度へ単調増加させた後、前記所定角度から前記基準角度へ単調減少させることで、前記第1容器から前記第2容器への注水を完了させるよう、前記ロボットアームが保持する前記第1容器の角度を制御する、
請求項1から請求項8までのいずれか1つに記載の液体秤量方法。
The control device monotonically increases the angle of the first container from a reference angle to a predetermined angle, and then monotonically decreases from the predetermined angle to the reference angle, thereby injecting water from the first container to the second container. To control the angle of the first container held by the robot arm,
The liquid weighing method according to any one of claims 1 to 8.
ロボットアームの動作を制御する制御部を備え、前記ロボットアームが保持する第1容器から第2容器へ所定量の液体を注水する制御を行う制御装置であって、
第1時点における前記第1容器の画像、前記第1容器の角度及び前記第2容器の液体量を入力として受け付け、第2時点における前記第1容器の角度を出力するよう機械学習された学習モデルを記憶する記憶部と、
第1時点に撮影された前記第1容器を含む画像を取得する画像取得部と、
前記第1時点の前記第1容器の角度を取得する現角度取得部と、
前記第1時点の前記第2容器の液体量を取得する液体量取得部と、
前記画像取得部が取得した画像、前記現角度取得部が取得した現時点の角度及び前記液体量取得部が取得した液体量を、前記記憶部に記憶した前記学習モデルへ入力して、前記学習モデルが出力する第2時点の角度を取得する次角度取得部と
を備え、
前記制御部は、前記次角度取得部が取得した前記第2時点の角度に応じて、前記ロボットアームが保持する前記第1容器の角度を制御する、
制御装置。
A control device comprising a control unit for controlling operation of a robot arm, the control device performing control for pouring a predetermined amount of liquid from a first container held by the robot arm into a second container,
A learning model machine-learned to accept the image of the first container at the first time point, the angle of the first container, and the liquid amount of the second container as inputs, and output the angle of the first container at the second time point. A storage unit for storing
An image acquisition unit that acquires an image including the first container captured at a first time point;
A current angle acquisition unit that acquires the angle of the first container at the first time point,
A liquid amount acquisition unit that acquires the liquid amount of the second container at the first time point,
The image acquired by the image acquisition unit, the current angle acquired by the current angle acquisition unit, and the liquid amount acquired by the liquid amount acquisition unit are input to the learning model stored in the storage unit, and the learning model is acquired. And a next angle acquisition unit that acquires the angle at the second time point output by
The control unit controls the angle of the first container held by the robot arm according to the angle at the second time point acquired by the next angle acquisition unit,
Control device.
第1容器から第2容器へ所定量の液体を注水するロボットアームの動作を制御するコンピュータに、
第1時点に撮影された前記第1容器を含む画像を取得し、
前記第1時点の前記第1容器の角度を取得し、
前記第1時点の前記第2容器の液体量を取得し、
第1時点における前記第1容器の画像、前記第1容器の角度及び前記第2容器の液体量を入力として受け付け、第2時点における前記第1容器の角度を出力するよう機械学習された学習モデルに対して、取得した前記第1時点の画像、角度及び液体量を入力して、前記学習モデルが出力する第2時点の角度を取得し、
取得した前記第2時点の角度に応じて、前記ロボットアームが保持する前記第1容器の角度を制御する、
コンピュータプログラム。
A computer that controls the operation of the robot arm that injects a predetermined amount of liquid from the first container to the second container,
Acquiring an image including the first container taken at a first time point,
Obtaining the angle of the first container at the first time point,
Obtaining the liquid amount of the second container at the first time point,
A learning model machine-learned to accept the image of the first container at the first time point, the angle of the first container, and the liquid amount of the second container as inputs, and output the angle of the first container at the second time point. In contrast, by inputting the acquired image, angle and liquid amount at the first time point, the angle at the second time point output by the learning model is acquired,
Controlling the angle of the first container held by the robot arm according to the acquired angle at the second time point;
Computer program.
ロボットアームが保持する第1容器から第2容器へ所定量の液体を注水する際に撮影された前記第1容器を含む時系列の画像を取得し、
前記ロボットアームが前記第1容器から前記第2容器へ前記所定量の液体を注水する際の前記第1容器の時系列の角度を取得し、
前記ロボットアームが前記第1容器から前記第2容器へ前記所定量の液体を注水する際の前記第2容器の時系列の液体量を取得し、
取得した第1時点における画像、角度及び液体量と、第2時点における画像、角度及び液体量とを対応付けた教師データを生成し、
第1時点における画像、角度及び液体量を入力として受け付け、第2時点における画像、角度及び液体量を出力する学習モデルに対し、生成した教師データを用いて機械学習を行い、
第1時点における前記第1容器の画像、前記第1容器の角度及び前記第2容器の液体量を入力として受け付け、第2時点における前記第1容器の画像、前記第1容器の角度及び前記第2容器の液体量を出力する学習モデルを生成する、
学習方法。
Acquiring a time-series image including the first container, which is photographed when pouring a predetermined amount of liquid from the first container held by the robot arm into the second container,
The robot arm acquires a time series angle of the first container when the predetermined amount of liquid is poured from the first container to the second container,
The robot arm acquires a time-series liquid amount of the second container when the predetermined amount of liquid is poured from the first container to the second container,
Teacher data in which the acquired image, angle, and liquid amount at the first time point are associated with the image, angle, and liquid amount at the second time point,
Machine learning is performed using the generated teacher data for a learning model that receives the image, angle, and liquid amount at the first time point as input, and outputs the image, angle, and liquid amount at the second time point,
The image of the first container at the first time point, the angle of the first container, and the liquid amount of the second container are accepted as inputs, and the image of the first container at the second time point, the angle of the first container, and the Generate a learning model that outputs the amount of liquid in two containers,
Learning method.
前記教師データの画像には、前記第1容器に収容された液体の液面の画像を含む、
請求項12に記載の学習方法。
The image of the teacher data includes an image of the liquid level of the liquid contained in the first container,
The learning method according to claim 12.
前記ロボットアームが前記第1容器の角度を基準角度から所定角度へ単調増加させた後、前記所定角度から前記基準角度へ単調減少させることで、前記第1容器から前記第2容器への注水を完了させた場合の時系列の画像、角度及び液体量に基づいて、前記教師データを生成する、
請求項12又は請求項13に記載の学習方法。
The robot arm monotonically increases the angle of the first container from a reference angle to a predetermined angle, and then monotonically decreases from the predetermined angle to the reference angle, thereby injecting water from the first container to the second container. Generating the teacher data based on the time-series image, the angle, and the liquid amount when completed.
The learning method according to claim 12 or 13.
JP2020069679A 2020-04-08 2020-04-08 Liquid weighing method, control device, computer program and learning method Active JP6725930B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020069679A JP6725930B1 (en) 2020-04-08 2020-04-08 Liquid weighing method, control device, computer program and learning method
PCT/JP2021/012633 WO2021205896A1 (en) 2020-04-08 2021-03-25 Liquid weighing method, control device, computer program, and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020069679A JP6725930B1 (en) 2020-04-08 2020-04-08 Liquid weighing method, control device, computer program and learning method

Publications (2)

Publication Number Publication Date
JP6725930B1 true JP6725930B1 (en) 2020-07-22
JP2021164980A JP2021164980A (en) 2021-10-14

Family

ID=71664045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020069679A Active JP6725930B1 (en) 2020-04-08 2020-04-08 Liquid weighing method, control device, computer program and learning method

Country Status (2)

Country Link
JP (1) JP6725930B1 (en)
WO (1) WO2021205896A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230271319A1 (en) * 2022-02-28 2023-08-31 Denso Wave Incorporated Method of generating a learning model for transferring fluid from one container to another by controlling robot arm based on a machine-learned learning model, and a method and system for weighing the fluid

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016181466A1 (en) * 2015-05-11 2016-11-17 株式会社安川電機 Dispensing system, controller, and control method
JP7087006B2 (en) * 2017-09-20 2022-06-20 グーグル エルエルシー Policy controller optimization for robotic agents that use image embedding
JP2019098419A (en) * 2017-11-28 2019-06-24 キユーピー株式会社 Machine learning method for learning extraction operation of powder, grain or fluid, and robot machine learning control device
US20190197466A1 (en) * 2017-12-27 2019-06-27 E-Commerce Exchange Solutions, Inc. Inventory control for liquid containers

Also Published As

Publication number Publication date
WO2021205896A1 (en) 2021-10-14
JP2021164980A (en) 2021-10-14

Similar Documents

Publication Publication Date Title
US7881917B2 (en) Apparatus simulating operations between a robot and workpiece models
CN101970184B (en) Operation teaching system and operation teaching method
JP6540472B2 (en) Simulation apparatus, simulation method, and simulation program
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
JP6811465B2 (en) Learning device, learning method, learning program, automatic control device, automatic control method and automatic control program
CN108724179A (en) control device, robot and robot system
JP6931457B2 (en) Motion generation method, motion generator, system and computer program
JP7219910B2 (en) Optimal Compaction Judgment Construction System for Concrete
JP6725930B1 (en) Liquid weighing method, control device, computer program and learning method
JP2008021092A (en) Simulation apparatus of robot system
WO2019167765A1 (en) Simulation device, method, and program
CN114599488A (en) Machine learning data generation device, machine learning device, work system, computer program, machine learning data generation method, and work machine manufacturing method
JP5849477B2 (en) Robot, robot control apparatus, robot control method, and program
JP2017203701A (en) Information processing apparatus, measurement system, information processing method, and program
CN109669482A (en) Cloud platform control method, device and equipment
JP2001100906A (en) Three-dimensional data display device
JP2017227595A (en) Damage figure creation support system and damage figure creation support method
JP5064533B2 (en) Rotary weight filling apparatus and rotary weight filling method
JP3977369B2 (en) Robot program generation device and analysis device
EP3839420A1 (en) Dynamical modeling of cmms for numerically correcting measurement results
JP4703965B2 (en) Rotary weight filling apparatus and rotary weight filling method
JP7442578B2 (en) Learning model generation method, learning model generation program, learning model generation device, learning data generation method, learning data generation program, learning data generation device, inference method, inference program, inference device, weighing method, and weighing system
JP2015100567A (en) Azimuth angle calibration method, motion analysis device and azimuth angle calibration program
JP2023130795A (en) robot teaching system
CN114115288A (en) Robot gait adjusting method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200408

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200408

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R150 Certificate of patent or registration of utility model

Ref document number: 6725930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250