JP6897593B2 - Learning target device and operation method - Google Patents

Learning target device and operation method Download PDF

Info

Publication number
JP6897593B2
JP6897593B2 JP2018023614A JP2018023614A JP6897593B2 JP 6897593 B2 JP6897593 B2 JP 6897593B2 JP 2018023614 A JP2018023614 A JP 2018023614A JP 2018023614 A JP2018023614 A JP 2018023614A JP 6897593 B2 JP6897593 B2 JP 6897593B2
Authority
JP
Japan
Prior art keywords
learning
display
remote control
control unit
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018023614A
Other languages
Japanese (ja)
Other versions
JP2018149670A (en
Inventor
安藤 丹一
丹一 安藤
光司 滝沢
光司 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to PCT/JP2018/008141 priority Critical patent/WO2018168537A1/en
Publication of JP2018149670A publication Critical patent/JP2018149670A/en
Application granted granted Critical
Publication of JP6897593B2 publication Critical patent/JP6897593B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、学習対象装置及び動作方法に関する。 The present invention relates to a learning target device and an operation method.

コンピュータのCPU(Central Processing Unit)、記憶装置、及びネットワークの高度化により、システムで扱うことのできるデータ量が爆発的に増大している。このような膨大な量のデータは、ビッグデータと呼ばれている。更に、それぞれデータソース及び操作対象となる多数の装置が、ネットワークを介して互いに接続されており、これらを統合する仕組みとして、様々なIoT(Internet of Things)システムが開発されている。ビッグデータをIoTシステムで取り扱うことにより、多様な情報処理を実施することができる。しかしながら、新たな情報処理を実施するためには、アプリケーションに新たな能力を付与することになる。近年、その開発量が大幅に増大しており、これによって、アプリケーション開発のリソースが足りない状況になってきている。深層学習(Deep Learning)をはじめとする新たなAI(Artificial Intelligence)技術によって、アプリケーションに新たな能力を獲得させることができれば、このようなリソースの足りない事態を解決することができる。 Due to the sophistication of computer CPUs (Central Processing Units), storage devices, and networks, the amount of data that can be handled by a system is explosively increasing. Such a huge amount of data is called big data. Further, a large number of devices to be operated and a data source are connected to each other via a network, and various IoT (Internet of Things) systems have been developed as a mechanism for integrating these. By handling big data in the IoT system, various information processing can be performed. However, in order to carry out new information processing, new capabilities will be given to the application. In recent years, the amount of development has increased significantly, which has led to a shortage of application development resources. If new AI (Artificial Intelligence) technologies such as deep learning can be used to acquire new capabilities in applications, such a situation of lack of resources can be solved.

以前から、ニューラルネットワークを含む人工知能に関する研究は幅広く行われてきた。例えば、画像に写る対象物の認識技術は、多くの改良が行われ、認識率が徐々に向上してきている。特に、深層学習の導入によって、対象物の認識率がここ数年で急速に向上している。深層学習の技術は、画像の認識だけではなく、音声認識、文章の要約、自動翻訳、自動運転、故障予測、センサデータの分析等の幅広い分野で利用されている。この深層学習等の機械学習を利用すれば、機械に新たな能力を獲得させることができる。 For some time, research on artificial intelligence, including neural networks, has been extensively conducted. For example, the technology for recognizing an object reflected in an image has undergone many improvements, and the recognition rate has been gradually improved. In particular, with the introduction of deep learning, the recognition rate of objects has increased rapidly in the last few years. Deep learning technology is used not only in image recognition but also in a wide range of fields such as voice recognition, sentence summarization, automatic translation, automatic driving, failure prediction, and sensor data analysis. By using machine learning such as deep learning, machines can acquire new abilities.

例えば、新たな能力を装置に実装する方法に関連する技術として、特許文献1及び2では、プリンタのファームウェアを書き換える技術が提案されている。また、特許文献3及び4では、機械学習に関連する技術が提案されており、特許文献5では、深層学習を利用した文字識別システムが提案されている。 For example, as a technique related to a method of mounting a new capability on an apparatus, Patent Documents 1 and 2 propose a technique of rewriting the firmware of a printer. Further, Patent Documents 3 and 4 propose a technique related to machine learning, and Patent Document 5 proposes a character identification system using deep learning.

特開2009−134474号公報Japanese Unexamined Patent Publication No. 2009-134474 特開2007−140952号公報JP-A-2007-140952 特開2014−228972号公報Japanese Unexamined Patent Publication No. 2014-228792 特許第5816771号公報Japanese Patent No. 5816771 特開2015− 53008号公報Japanese Unexamined Patent Publication No. 2015-53008

本件発明者らは、上記のような従来のAI技術について次のような問題があることを見出した。すなわち、従来のAI技術では、新たな能力を追加する対象となるロボット等の装置を手元に用意し、その対象の装置に機械学習の処理を実行させることで、当該対象の装置に新たな能力を獲得させていた。そのため、新たな能力を追加する対象となる装置が遠隔地に配置されている場合には、その装置に新たな能力を追加するのは困難であった。 The present inventors have found that the above-mentioned conventional AI technology has the following problems. That is, in the conventional AI technology, a device such as a robot to be added to a new ability is prepared at hand, and the target device is made to execute a machine learning process, so that the target device has a new ability. Was acquired. Therefore, when the device to be added to the new ability is located in a remote place, it is difficult to add the new ability to the device.

そこで、本件発明者らは、上記の問題点を解決するため、遠隔操作により機械学習の処理を実行させることで、遠隔地に配置された装置に新たな能力を追加するシステムを発明した。ただし、このシステムでは、学習対象装置を遠隔操作するため、本件発明者らは、学習対象装置の周囲で不測の事故等が発生してしまう可能性があるという問題点があることを見出した。 Therefore, in order to solve the above-mentioned problems, the present inventors have invented a system that adds a new ability to a device arranged in a remote place by executing a machine learning process by remote control. However, since this system remotely controls the learning target device, the present inventors have found that there is a problem that an unexpected accident or the like may occur around the learning target device.

本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することである。 The present invention, on the one hand, has been made in view of such circumstances, and an object of the present invention is to remotely control a learning target device located at a remote location in order to carry out machine learning. The purpose is to provide a mechanism for ensuring the safety around the device to be learned.

本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention employs the following configuration in order to solve the above-mentioned problems.

すなわち、本発明の一側面に係る学習対象装置は、依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う学習装置に対して遠隔地に配置され、当該学習装置の機械学習により当該指定された能力を獲得させる対象となる学習対象装置であって、表示部と、制御部と、を備え、前記制御部は、指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、を実行するように構成される。 That is, the learning target device according to one aspect of the present invention is arranged at a remote location with respect to a learning device that performs machine learning for acquiring a designated ability in response to a learning request from a client, and the learning device is concerned. It is a learning target device to be acquired by the machine learning of the above, and includes a display unit and a control unit, and the control unit executes an operation related to the designated ability. A reception step that receives a command for remote operation to be instructed from the learning device, an execution step that executes an operation related to the designated ability according to the received command for remote operation, and the operation according to the command for remote operation. During the execution, the display step of displaying on the display unit that the learning device is being operated by the remote operation is executed.

当該構成に係る学習対象装置は、学習装置からの遠隔操作の指令に従って動作している間に、当該学習装置の遠隔操作による動作中であることを表示部に表示する。当該構成では、この表示部の表示を通じて、学習対象装置の周囲の存在する作業者に、当該学習対象装置が遠隔操作されていることを知らせることができ、これにより、学習対象装置の周囲の安全を確保することができる。したがって、当該構成によれば、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。 While the learning target device according to the configuration is operating in accordance with a remote control command from the learning device, the display unit displays that the learning device is being operated by remote control. In this configuration, through the display of this display unit, it is possible to notify the operator existing around the learning target device that the learning target device is remotely controlled, whereby the safety around the learning target device can be obtained. Can be secured. Therefore, according to the configuration, it is possible to provide a mechanism for ensuring the safety around the learning target device when the learning target device located at a remote location is remotely controlled in order to carry out machine learning. ..

なお、「学習対象装置」は、コンピュータにより制御可能な装置であれば特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、学習対象装置は、製造ライン、手術等に利用されるロボットシステムであってよい。また、獲得させる対象となる「能力」は、学習対象装置に実装可能なあらゆる能力を含んでよく、例えば、学習対象装置が提供可能な機能、学習対象装置が実行可能な情報処理等である。能力を獲得することには、未実装の新たな機能又は情報処理を学習対象装置が実施可能になること、及び実装済みの機能又は情報処理を学習対象装置がより効率的に実施可能になることが含まれる。更に、「遠隔地に配置される」とは、学習装置と学習対象装置とが物理的に離れていることであり、例えば、壁で隔たれていたり、別々の建物内にそれぞれが配置されるなどして、学習装置の側にいる人から学習対象装置の側にいる人が見えなかったり、直接声が届かないような配置である。また、例えば、学習対象装置は学習の依頼者の工場内に設置され、学習装置は学習依頼を請け負った者の会社の建物内に設置され、それぞれが別々の会社の建物での配置である。学習装置と学習対象装置とが互いに異なる県に配置される等、学習装置を運営する会社所属の技術者が学習対象装置の配置されている場所を訪れるのに比較的に時間がかかるようなケースに本発明は特に効果を発揮する。また、学習装置は、学習対象装置よりもマシンパワーが高くなるように構成されるのが好ましい。すなわち、学習対象装置は、学習装置よりもマシンパワーが低くなるように構成されてよい。マシンパワーは、CPUの処理速度、メモリの容量、メモリの読み出し速度等によって比較されてよい。 The "learning target device" is not particularly limited as long as it is a device that can be controlled by a computer, and may be appropriately selected according to the embodiment. For example, the learning target device may be a robot system used in a production line, surgery, or the like. Further, the "ability" to be acquired may include any ability that can be implemented in the learning target device, for example, a function that can be provided by the learning target device, information processing that can be executed by the learning target device, and the like. In order to acquire the ability, the learning target device can perform new functions or information processing that have not been implemented, and the learning target device can perform the implemented functions or information processing more efficiently. Is included. Further, "located in a remote place" means that the learning device and the learning target device are physically separated from each other, for example, they are separated by a wall, or they are placed in separate buildings. Then, the person on the side of the learning device cannot see the person on the side of the learning target device, or the voice does not reach directly. Further, for example, the learning target device is installed in the factory of the learning requester, the learning device is installed in the company building of the person who undertakes the learning request, and each is arranged in a separate company building. Cases where it takes a relatively long time for a technician belonging to a company that operates a learning device to visit the place where the learning device is located, such as when the learning device and the learning device are located in different prefectures. The present invention is particularly effective. Further, the learning device is preferably configured to have a higher machine power than the learning target device. That is, the learning target device may be configured to have a lower machine power than the learning device. Machine power may be compared according to the processing speed of the CPU, the capacity of the memory, the read speed of the memory, and the like.

また、上記一側面に係る学習対象装置は、周囲に配置された周辺装置と通信を行うように構成された通信部を更に備えてよく、前記制御部は、前記遠隔操作の指令に従って前記動作を実行している間に、前記周辺装置に対して、前記学習装置の前記遠隔操作による動作中であることを前記通信部により通知する通知ステップを更に実行するように構成されてもよい。当該構成によれば、学習対象装置が遠隔操作により動作していることを周辺装置に認識させることができる。これにより、周辺装置が、学習対象装置における機械学習のための遠隔操作による動作を阻害しないようにすることができる。 Further, the learning target device according to the one aspect may further include a communication unit configured to communicate with peripheral devices arranged around the device, and the control unit performs the operation according to the remote control command. During the execution, the peripheral device may be further configured to perform a notification step for notifying the communication unit that the learning device is being operated by the remote control. According to this configuration, it is possible to make the peripheral device recognize that the learning target device is operating by remote control. As a result, the peripheral device can be prevented from interfering with the operation of the learning target device by remote control for machine learning.

また、上記一側面に係る学習対象装置において、前記制御部は、前記学習装置からの前記遠隔操作が完了した後、前記周辺装置に対して、前記遠隔操作による動作が完了したことを前記通信部により通知する完了通知ステップを更に実行するように構成されてよい。当該構成によれば、学習対象装置において遠隔操作による動作が完了したことを周辺装置に認識させることができる。 Further, in the learning target device according to the one aspect, the control unit notifies the peripheral device that the operation by the remote control is completed after the remote control from the learning device is completed. It may be configured to further perform the completion notification step notified by. According to this configuration, it is possible to make the peripheral device recognize that the operation by remote control has been completed in the learning target device.

また、上記一側面に係る学習対象装置において、前記制御部は、前記学習装置からの前記遠隔操作が完了した後、前記遠隔操作による動作が完了したことを前記表示部に表示させる完了表示ステップを更に実行するように構成されてもよい。これにより、学習対象装置の周囲に存在する作業者に、学習対象装置において遠隔操作による動作が完了したことを知らせることができる。特に、学習対象装置の周囲に存在する作業者に、学習装置の遠隔操作による動作が完了し、学習対象装置が遠隔操作により突然に動き出すことはないことを知らせることができる。 Further, in the learning target device according to the one aspect, the control unit performs a completion display step of displaying on the display unit that the operation by the remote control is completed after the remote control from the learning device is completed. It may be configured to perform further. As a result, it is possible to notify the workers existing around the learning target device that the operation by remote control has been completed in the learning target device. In particular, it is possible to notify the operator existing around the learning target device that the operation of the learning device by remote control is completed and the learning target device does not suddenly start to move by remote control.

また、上記一側面に係る学習対象装置において、前記表示部は、ディスプレイであってよく、前記制御部は、前記表示ステップにおいて、前記学習装置の前記遠隔操作による動作の内容を前記ディスプレイに表示させてもよい。当該構成によれば、学習対象装置の周囲に存在する作業者に、遠隔操作による動作の内容を知らせることができる。 Further, in the learning target device according to the one aspect, the display unit may be a display, and the control unit causes the display to display the contents of the operation of the learning device by the remote control in the display step. You may. According to this configuration, it is possible to notify the operator existing around the learning target device of the content of the operation by remote control.

また、上記一側面に係る学習対象装置において、前記制御部は、前記受付ステップでは、複数の動作の実行を指示する前記指令を受け付けてよく、前記表示ステップでは、前記実行ステップにより実行中の動作の次に実行する動作の内容を前記ディスプレイに表示させてもよい。当該構成によれば、実行中の動作の次に実行する動作の内容をディスプレイに表示させることで、学習対象装置の周囲に存在する作業者に、当該学習対象装置の動作を予め知らせることができる。これにより、学習対象装置の周囲の安全性を高めることができる。 Further, in the learning target device according to the one aspect, the control unit may receive the command instructing the execution of a plurality of operations in the reception step, and in the display step, the operation being executed by the execution step. The content of the operation to be executed next may be displayed on the display. According to this configuration, by displaying the content of the operation to be executed next to the operation being executed on the display, the operator existing around the learning target device can be notified in advance of the operation of the learning target device. .. As a result, the safety around the learning target device can be enhanced.

また、上記一側面に係る学習対象装置において、前記制御部は、実行中の動作が危険な動作である場合に、前記表示ステップにおいて、実行中の動作が危険な動作であることを前記ディスプレイに表示させてもよい。当該構成によれば、危険な動作を明示することで、学習対象装置の周囲に存在する作業者に危険が迫り得ることを明確に知らせることができ、これによって、学習対象装置の周囲の安全性を高めることができる。 Further, in the learning target device according to the one aspect, when the operation being executed is a dangerous operation, the control unit indicates to the display that the operation being executed is a dangerous operation in the display step. It may be displayed. According to this configuration, by clearly indicating the dangerous operation, it is possible to clearly inform the workers existing around the learning target device that the danger may be imminent, thereby ensuring the safety around the learning target device. Can be enhanced.

また、上記一側面に係る学習対象装置において、前記表示部は、表示灯であってよく、前記表示制御部は、前記表示ステップでは、第1の表示態様で前記表示灯を発光させることで、前記学習装置の前記遠隔操作による動作中であること前記表示灯に表示させてよく、前記完了表示ステップでは、前記第1の表示態様とは異なる第2の表示態様で前記表示灯を発光させることで、前記遠隔操作による動作が完了したことを前記表示灯に表示させてよい。当該構成によれば、学習対象装置の周囲の安全を確保する仕組みを安価に実現することができる。 Further, in the learning target device according to the one aspect, the display unit may be an indicator light, and the display control unit causes the indicator light to emit light in the first display mode in the display step. The learning device may be displayed on the indicator lamp when it is being operated by the remote control, and in the completion display step, the indicator lamp is made to emit light in a second display mode different from the first display mode. Then, the indicator lamp may indicate that the operation by the remote control has been completed. According to this configuration, a mechanism for ensuring the safety around the learning target device can be realized at low cost.

本発明の一側面に係る動作方法は、依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う学習装置に対して遠隔地に配置され、当該学習装置の機械学習により当該指定された能力を獲得させる対象となる学習対象装置であって、表示部を備える学習対象装置が、指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、を実行する。当該構成によれば、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。 The operation method according to one aspect of the present invention is arranged at a remote location from a learning device that performs machine learning for acquiring a designated ability in response to a learning request from a client, and the machine learning of the learning device. A learning target device that is a target for acquiring the designated ability, and the learning target device having a display unit issues a remote operation command instructing the execution of an operation related to the designated ability. While the reception step received from, the execution step of executing the operation related to the designated ability according to the received command of the remote operation, and the operation being executed according to the command of the remote operation, the learning device. The display step of displaying on the display unit that the operation is being performed by the remote operation is executed. According to this configuration, it is possible to provide a mechanism for ensuring the safety around the learning target device when the learning target device located at a remote location is remotely controlled in order to carry out machine learning.

本発明によれば、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism for ensuring the safety around the learning target device when the learning target device located at a remote location is remotely controlled in order to carry out machine learning.

図1は、本発明が適用される場面の一例を模式的に例示する。FIG. 1 schematically illustrates an example of a situation in which the present invention is applied. 図2は、実施の形態に係る学習装置のハードウェア構成の一例を模式的に例示する。FIG. 2 schematically illustrates an example of the hardware configuration of the learning device according to the embodiment. 図3は、実施の形態に係るロボットアームシステムのハードウェア構成の一例を模式的に例示する。FIG. 3 schematically illustrates an example of the hardware configuration of the robot arm system according to the embodiment. 図4は、実施の形態に係るロボットアームシステムの動作状態の一例を模式的に例示する。FIG. 4 schematically illustrates an example of the operating state of the robot arm system according to the embodiment. 図5は、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。FIG. 5 schematically illustrates an example of the software configuration of the learning device according to the embodiment. 図6は、実施の形態に係るロボットアームシステムのソフトウェア構成の一例を模式的に例示する。FIG. 6 schematically illustrates an example of the software configuration of the robot arm system according to the embodiment. 図7は、実施の形態に係る学習装置の処理手順の一例を例示する。FIG. 7 illustrates an example of the processing procedure of the learning device according to the embodiment. 図8は、実施の形態に係るロボットアームシステムの処理手順の一例を例示する。FIG. 8 illustrates an example of the processing procedure of the robot arm system according to the embodiment. 図9は、変形例に係る学習装置の構成の一例を模式的に例示する。FIG. 9 schematically illustrates an example of the configuration of the learning device according to the modified example. 図10は、変形例に係る学習装置の機械学習実施中における処理手順の一例を例示する。FIG. 10 illustrates an example of a processing procedure during machine learning of the learning device according to the modified example. 図11は、変形例に係るロボットアームシステムの一例を模式的に例示する。FIG. 11 schematically illustrates an example of a robot arm system according to a modified example.

以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。例えば、以下では、機械学習させる対象となる学習対象装置の実施形態として、工場内で所定の作業を行うロボットアームシステムを例示する。しかしながら、本発明の適用対象は、ロボットアームシステムに限定される訳ではなく、実施の形態に応じて適宜選択されてよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 Hereinafter, embodiments according to one aspect of the present invention (hereinafter, also referred to as “the present embodiment”) will be described with reference to the drawings. However, the embodiments described below are merely examples of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. That is, in carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted. For example, in the following, as an embodiment of a learning target device to be machine-learned, a robot arm system that performs a predetermined work in a factory will be illustrated. However, the application target of the present invention is not limited to the robot arm system, and may be appropriately selected depending on the embodiment. The data appearing in the present embodiment are described in natural language, but more specifically, the data is specified in a pseudo language, commands, parameters, machine language, etc. that can be recognized by a computer.

§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る学習装置及び学習対象装置の適用場面の一例を模式的に例示する。
§1 Application example First, an example of a situation in which the present invention is applied will be described with reference to FIG. FIG. 1 schematically illustrates an example of an application scene of the learning device and the learning target device according to the present embodiment.

図1に示されるとおり、本実施形態に係る学習装置1は、依頼者からの学習依頼に応じて、遠隔地に配置される学習対象装置に指定された新たな能力を獲得するための機械学習を行う情報処理装置である。具体的には、学習装置1は、遠隔地に配置され、機械学習させる対象となる学習対象装置の指定、及び学習対象装置に機械学習により獲得させる能力の指定を学習依頼として依頼者から受け付ける。依頼者は、ユーザ端末4を利用して、ネットワーク10を介して、学習対象装置及び獲得させる能力の指定を行う。 As shown in FIG. 1, the learning device 1 according to the present embodiment is machine learning for acquiring a new ability designated for a learning target device arranged in a remote location in response to a learning request from a client. It is an information processing device that performs. Specifically, the learning device 1 is arranged at a remote location and receives from the client a designation of a learning target device to be machine-learned and a designation of an ability to be acquired by the learning target device by machine learning as a learning request. The client uses the user terminal 4 to specify the learning target device and the ability to be acquired via the network 10.

本実施形態では、工場内で所定の作業を行うロボットアームシステム2が、学習装置1の機械学習により当該指定された能力を獲得させる対象となる学習対象装置として指定されたものとする。なお、獲得させる能力は、ロボットアームシステム2に実装可能なあらゆる能力から実施の形態に応じて適宜選択されてよく、例えば、新たな作業を実施する能力、運用中の作業をより効率的に実施する能力等であってよい。 In the present embodiment, it is assumed that the robot arm system 2 that performs a predetermined work in the factory is designated as a learning target device that is a target for acquiring the designated ability by machine learning of the learning device 1. The ability to be acquired may be appropriately selected from all the abilities that can be implemented in the robot arm system 2 according to the embodiment. For example, the ability to perform a new work and the work in operation can be performed more efficiently. It may be the ability to do.

学習装置1は、制御データを送信することで、学習依頼で指定された能力に関連する学習のための動作を実行するように、学習対象装置に指定されたロボットアームシステム2を遠隔操作する。次に、学習装置1は、ロボットアームシステム2の遠隔操作の結果に基づいて、指定された能力の機械学習のための学習データを収集する。そして、学習装置1は、収集した学習データを用いて、指定された能力を獲得させるように学習器(後述するニューラルネットワーク6)の機械学習を行う。これにより、学習装置1は、学習対象装置に指定されたロボットアームシステム2に対して、学習依頼で指定された能力を実施させるための学習済みの学習器を生成することができる。 By transmitting control data, the learning device 1 remotely controls the robot arm system 2 designated as the learning target device so as to execute an operation for learning related to the ability specified in the learning request. Next, the learning device 1 collects learning data for machine learning of the specified ability based on the result of the remote control of the robot arm system 2. Then, the learning device 1 performs machine learning of the learning device (neural network 6 described later) so as to acquire the designated ability by using the collected learning data. As a result, the learning device 1 can generate a learned learning device for causing the robot arm system 2 designated as the learning target device to carry out the ability specified in the learning request.

また、本実施形態では、遠隔地に配置されたロボットアームシステム2には、指定された能力に関する動作を実行させるに過ぎず、指定された能力を獲得するための機械学習の処理は、学習装置1に実行させる。そのため、遠隔地に配置されたロボットアームシステム2のマシンパワーが制限されていても、当該ロボットアームシステム2に獲得させる能力の機械学習の処理を実施することができる。 Further, in the present embodiment, the robot arm system 2 located at a remote location merely executes an operation related to the specified ability, and the machine learning process for acquiring the specified ability is a learning device. Let 1 do it. Therefore, even if the machine power of the robot arm system 2 located at a remote location is limited, it is possible to carry out the machine learning process of the ability to be acquired by the robot arm system 2.

したがって、本実施形態によれば、高度なスキルを有する要因及び機械学習に利用する複雑なシステムを持たない一般の企業(依頼者)から学習依頼を受け付け、受け付けた学習依頼に応じて機械学習の実施を行う技術的な仕組みを提供することができる。特に、ロボットアームシステム2のように遠隔地の工場、倉庫等に配置された装置に新たな能力を適切に追加するための技術的な仕組みを提供することができる。 Therefore, according to the present embodiment, a learning request is received from a general company (requester) who does not have a factor having advanced skills and a complicated system used for machine learning, and machine learning is performed according to the received learning request. It is possible to provide a technical mechanism for implementation. In particular, it is possible to provide a technical mechanism for appropriately adding a new capability to a device arranged in a factory, a warehouse, or the like in a remote place such as the robot arm system 2.

なお、「遠隔地に配置される」とは、学習装置1と学習対象装置とが物理的に離れていることであり、例えば、壁で隔たれていたり、別々の建物内にそれぞれが配置されるなどして、学習装置の側にいる人から学習対象装置の側にいる人が見えなかったり、直接声が届かないような配置である。また、例えば、学習対象装置は学習の依頼者の工場内に設置され、学習装置1は学習依頼を請け負った者の会社の建物内に設置され、それぞれが別々の会社の建物での配置である。したがって、依頼者の利用するユーザ端末4の配置は、実施の形態に応じて適宜選択されてよい。例えば、ユーザ端末4は、学習装置1及びロボットアームシステム2と異なるローカルエリアネットワークに配置され、学習装置1及びロボットアームシステム2とインターネット等のネットワークを介して接続するように配置されてもよい。また、例えば、ユーザ端末4は、学習装置1と同じローカルエリアネットワークに配置されてもよいし、ロボットアームシステム2と同じローカルエリアネットワークに配置されてもよい。更に、学習装置1は、直接入力を受け付けることで、ユーザ端末4を介さず依頼者から学習依頼を受けてもよい。 In addition, "arranged in a remote place" means that the learning device 1 and the learning target device are physically separated from each other. For example, they are separated by a wall or arranged in separate buildings. For example, the arrangement is such that the person on the side of the learning device cannot see the person on the side of the learning target device, or the voice does not reach directly. Further, for example, the learning target device is installed in the factory of the learning requester, the learning device 1 is installed in the company building of the person who contracted the learning request, and each is arranged in a separate company building. .. Therefore, the arrangement of the user terminal 4 used by the client may be appropriately selected according to the embodiment. For example, the user terminal 4 may be arranged in a local area network different from the learning device 1 and the robot arm system 2, and may be arranged so as to connect the learning device 1 and the robot arm system 2 via a network such as the Internet. Further, for example, the user terminal 4 may be arranged in the same local area network as the learning device 1, or may be arranged in the same local area network as the robot arm system 2. Further, the learning device 1 may receive a learning request from the requester without going through the user terminal 4 by directly accepting the input.

一方、本実施形態に係るロボットアームシステム2は、依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う上記学習装置1に対して遠隔地に配置され、当該学習装置1の機械学習により指定された能力を獲得させる対象となる学習対象装置の一例である。本実施形態に係るロボットアームシステム2は、所定の作業を実施するロボットアーム30、及びロボットアーム30を制御するロボットコントローラ(RC)20を備えている。また、ロボットコントローラはPLC(programmable logic controller)などでもよい。これにより、ロボットアームシステム2は、指定された能力に関連する動作の実施を指示する遠隔操作の指令を上記学習装置1から受け付け、受け付けた遠隔操作の指令に従って、指定された能力に関連する動作を実行するように構成される。すなわち、ロボットアームシステム2は、RC20によって、学習装置1から指定された動作をロボットアーム30に実行させるように構成される。 On the other hand, the robot arm system 2 according to the present embodiment is arranged at a remote location with respect to the learning device 1 that performs machine learning for acquiring a designated ability in response to a learning request from a client, and the learning is performed. This is an example of a learning target device that is a target for acquiring the ability specified by machine learning of the device 1. The robot arm system 2 according to the present embodiment includes a robot arm 30 that performs a predetermined work, and a robot controller (RC) 20 that controls the robot arm 30. Further, the robot controller may be a PLC (programmable logic controller) or the like. As a result, the robot arm system 2 receives a remote control command from the learning device 1 instructing the execution of the operation related to the designated ability, and according to the received remote control command, the operation related to the designated ability. Is configured to run. That is, the robot arm system 2 is configured so that the robot arm 30 executes the operation specified by the learning device 1 by the RC20.

また、ロボットアームシステム2は、所定の表示を行うディスプレイ32を備えている。ディスプレイ32は、例えば、ロボットアーム30の近傍等、ロボットアームシステム2の周囲に存在する工場内の作業者が視認可能な場所に配置される。このディスプレイ32は、本発明の「表示部」の一例である。本実施形態に係るロボットアームシステム2は、遠隔操作の指令の指令に従って動作を実行している間、学習装置1の遠隔操作による動作中であることをディスプレイ32に表示させるように構成される。 Further, the robot arm system 2 includes a display 32 that performs a predetermined display. The display 32 is arranged in a place visible to workers in the factory existing around the robot arm system 2, such as in the vicinity of the robot arm 30. The display 32 is an example of the "display unit" of the present invention. The robot arm system 2 according to the present embodiment is configured to display on the display 32 that the learning device 1 is being operated by remote control while executing the operation in accordance with a command of a remote control command.

これによって、本実施形態では、ディスプレイ32の表示を通じて、ロボットアームシステム2が学習装置1によって遠隔操作されている最中であることを工場内の作業者等に知らせることができる。したがって、本実施形態によれば、学習装置1による遠隔操作が実施されている間におけるロボットアームシステム2の周囲の安全を確保することができる。 Thereby, in the present embodiment, it is possible to notify the workers in the factory that the robot arm system 2 is being remotely controlled by the learning device 1 through the display of the display 32. Therefore, according to the present embodiment, it is possible to ensure the safety around the robot arm system 2 while the remote control by the learning device 1 is being performed.

なお、本実施形態では、ロボットアームシステム2は、ロボットアーム30の可動範囲の状況を監視するカメラ31を備えている。カメラ31は、ロボットアーム30の可動範囲の状況を監視する監視装置(撮影装置)の一例である。また、本実施形態では、工場内において、ロボットアームシステム2の他に、オペレータの操作により他律的に又は自律的に移動可能なロボット装置5が作業を行っている。 In the present embodiment, the robot arm system 2 includes a camera 31 that monitors the state of the movable range of the robot arm 30. The camera 31 is an example of a monitoring device (imaging device) that monitors the state of the movable range of the robot arm 30. Further, in the present embodiment, in addition to the robot arm system 2, a robot device 5 that can move heteronomously or autonomously by an operator's operation is performing work in the factory.

§2 構成例
[ハードウェア構成]
<学習装置>
次に、図2を用いて、本実施形態に係る学習装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る学習装置1のハードウェア構成の一例を模式的に例示する。
§2 Configuration example [Hardware configuration]
<Learning device>
Next, an example of the hardware configuration of the learning device 1 according to the present embodiment will be described with reference to FIG. FIG. 2 schematically illustrates an example of the hardware configuration of the learning device 1 according to the present embodiment.

図2に示されるとおり、本実施形態に係る学習装置1は、制御部11、記憶部12、通信インタフェース、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、通信インタフェースを「通信I/F」と記載している。 As shown in FIG. 2, the learning device 1 according to the present embodiment is a computer to which the control unit 11, the storage unit 12, the communication interface, the input device 14, the output device 15, and the drive 16 are electrically connected. In FIG. 2, the communication interface is described as "communication I / F".

制御部11は、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部12は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成され、制御部11で実行される学習プログラム121、学習器の学習に利用する学習データ122、依頼者に指定された能力をロボットアームシステム2に付与するための能力付与データ123等を記憶する。 The control unit 11 includes a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and is configured to execute various information processing based on a program and data. The storage unit 12 is composed of, for example, a hard disk drive, a solid state drive, or the like, and has a learning program 121 executed by the control unit 11, learning data 122 used for learning of the learner, and a robot arm having the ability specified by the client. The ability granting data 123 and the like to be given to the system 2 are stored.

学習プログラム121は、学習装置1に後述する機械学習の処理(図7)を実行させるためのプログラムである。学習データ122は、依頼者により指定された能力の機械学習に利用されるデータであり、遠隔操作したロボットアームシステム2から収集される。能力付与データ123は、機械学習の結果により獲得した能力をロボットアームシステム2に付与するためのデータである。詳細は後述する。 The learning program 121 is a program for causing the learning device 1 to execute a machine learning process (FIG. 7) described later. The learning data 122 is data used for machine learning of the ability specified by the client, and is collected from the remotely controlled robot arm system 2. The ability-giving data 123 is data for imparting the ability acquired as a result of machine learning to the robot arm system 2. Details will be described later.

通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワーク10を介した有線又は無線通信を行うためのインタフェースである。学習装置1は、この通信インタフェース13により、ロボットアームシステム2及びユーザ端末4との間でネットワーク10を介してデータ通信を行うことができる。なお、ネットワーク10の種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。 The communication interface 13 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via the network 10. The learning device 1 can perform data communication with the robot arm system 2 and the user terminal 4 via the network 10 by the communication interface 13. The type of network 10 may be appropriately selected from, for example, the Internet, a wireless communication network, a mobile communication network, a telephone network, a dedicated network, and the like.

入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置14及び出力装置15を介して、学習装置1を操作することができる。 The input device 14 is, for example, a device for inputting a mouse, a keyboard, or the like. The output device 15 is, for example, a device for outputting a display, a speaker, or the like. The operator can operate the learning device 1 via the input device 14 and the output device 15.

ドライブ16は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ16の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記学習プログラム121は、この記憶媒体91に記憶されていてもよい。 The drive 16 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading a program stored in the storage medium 91. The type of the drive 16 may be appropriately selected according to the type of the storage medium 91. The learning program 121 may be stored in the storage medium 91.

記憶媒体91は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置1は、この記憶媒体91から、上記学習プログラム121を取得してもよい。 The storage medium 91 stores the information of the program or the like by electrical, magnetic, optical, mechanical or chemical action so that the information of the program or the like recorded by the computer or other device, the machine or the like can be read. It is a medium to do. The learning device 1 may acquire the learning program 121 from the storage medium 91.

ここで、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。 Here, in FIG. 2, as an example of the storage medium 91, a disc-type storage medium such as a CD or a DVD is illustrated. However, the type of the storage medium 91 is not limited to the disc type, and may be other than the disc type. Examples of storage media other than the disk type include semiconductor memories such as flash memories.

なお、学習装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。学習装置1は、複数台の情報処理装置で構成されてもよい。また、学習装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC(Personal Computer)等であってもよい。後述する機械学習の処理を実行するため、学習装置1は、ロボットアームシステム2よりもマシンパワーが高くなるように構成されるのが好ましい。なお、マシンパワーは、CPUの処理速度、メモリの記憶容量、メモリの読み出し速度等によって特定されてよい。例えば、学習装置1は、ロボットアームシステム2のRC20よりも高速に動作するCPUを有することで、ロボットアームシステム2よりもマシンパワーが高くなっていてもよい。また、学習装置1とRC20とのCPUの処理速度が同じである場合、学習装置1のRAMが、RC20のRAMよりも大容量又は高速であることで、学習装置1は、ロボットアームシステム2よりもマシンパワーが高くなっていてもよい。 Regarding the specific hardware configuration of the learning device 1, the components can be omitted, replaced, or added as appropriate according to the embodiment. For example, the control unit 11 may include a plurality of processors. The learning device 1 may be composed of a plurality of information processing devices. Further, the learning device 1 may be a general-purpose server device, a PC (Personal Computer), or the like, in addition to an information processing device designed exclusively for the provided service. In order to execute the machine learning process described later, it is preferable that the learning device 1 is configured to have a higher machine power than the robot arm system 2. The machine power may be specified by the processing speed of the CPU, the storage capacity of the memory, the read speed of the memory, and the like. For example, the learning device 1 may have a higher machine power than the robot arm system 2 by having a CPU that operates at a higher speed than the RC20 of the robot arm system 2. Further, when the processing speeds of the CPUs of the learning device 1 and the RC20 are the same, the RAM of the learning device 1 has a larger capacity or a higher speed than the RAM of the RC20, so that the learning device 1 is more than the robot arm system 2. The machine power may be higher.

<ロボットアームシステム>
次に、図3及び図4を更に用いて、本実施形態に係るロボットアームシステム2のハードウェア構成の一例について説明する。図3は、本実施形態に係るRC20のハードウェア構成の一例を模式的に例示する。図4は、本実施形態に係るロボットアーム30の動作状態の一例を模式的に例示する。図1及び図3に示されるとおり、本実施形態に係るロボットアームシステム2は、RC20、ロボットアーム30、カメラ31、及びディスプレイ32を備える。以下、各構成要素について説明する。
<Robot arm system>
Next, an example of the hardware configuration of the robot arm system 2 according to the present embodiment will be described with reference to FIGS. 3 and 4. FIG. 3 schematically illustrates an example of the hardware configuration of the RC20 according to the present embodiment. FIG. 4 schematically illustrates an example of the operating state of the robot arm 30 according to the present embodiment. As shown in FIGS. 1 and 3, the robot arm system 2 according to the present embodiment includes an RC 20, a robot arm 30, a camera 31, and a display 32. Hereinafter, each component will be described.

(RC)
まず、RC20について説明する。本実施形態に係るRC20は、制御部21、記憶部22、外部インタフェース23、及び通信インタフェース24が電気的に接続されたコンピュータである。これにより、RC20は、ロボットアーム30、カメラ31、及びディスプレイ32の動作を制御するように構成される。なお、図3では、外部インタフェース及び通信インタフェースを「外部I/F」及び「通信I/F」と記載している。
(RC)
First, RC20 will be described. The RC20 according to the present embodiment is a computer to which the control unit 21, the storage unit 22, the external interface 23, and the communication interface 24 are electrically connected. As a result, the RC 20 is configured to control the operations of the robot arm 30, the camera 31, and the display 32. In FIG. 3, the external interface and the communication interface are described as "external I / F" and "communication I / F".

制御部21は、CPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、RAM、ROM等で構成され、制御プログラム221等を記憶する。制御プログラム221は、RC20に後述するロボットアーム30の制御処理(図8)を実行させるためのプログラムである。制御部21は、この制御プログラム221を解釈及び実行することで、後述する各ステップの処理を実行するように構成される。 The control unit 21 includes a CPU, RAM, ROM, and the like, and is configured to execute various information processing based on programs and data. The storage unit 22 is composed of, for example, a RAM, a ROM, or the like, and stores the control program 221 or the like. The control program 221 is a program for causing the RC 20 to execute a control process (FIG. 8) of the robot arm 30 described later. The control unit 21 is configured to execute the processing of each step described later by interpreting and executing the control program 221.

外部インタフェース23は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。本実施形態では、RC20は、各外部インタフェース23を介して、ロボットアーム30、カメラ31、及びディスプレイ32に接続する。 The external interface 23 is an interface for connecting to an external device, and is appropriately configured according to the external device to be connected. In this embodiment, the RC 20 is connected to the robot arm 30, the camera 31, and the display 32 via each external interface 23.

通信インタフェース24は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、有線又は無線通信を行うためのインタフェースである。通信インタフェース24は、本発明の「通信部」の一例である。RC20は、通信インタフェース24により、遠隔地に配置された学習装置1、及び工場内のロボットアームシステム2の周囲に配置される周辺装置(例えば、自走可能なロボット装置5)との間でデータ通信を行うことができる。 The communication interface 24 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication. The communication interface 24 is an example of the "communication unit" of the present invention. The RC20 uses the communication interface 24 to generate data between the learning device 1 located at a remote location and the peripheral device (for example, the self-propelled robot device 5) arranged around the robot arm system 2 in the factory. Can communicate.

なお、RC20の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。制御部21は、複数のプロセッサを含んでもよい。制御部21は、FPGAにより構成されてもよい。記憶部22は、制御部21に含まれるRAM及びROMにより構成されてもよい。記憶部22は、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置で構成されてもよい。また、RC20は、提供されるサービス専用に設計された情報処理装置の他、制御する対象に応じて、汎用のデスクトップPC、タブレットPC等であってもよい。 Regarding the specific hardware configuration of RC20, it is possible to omit, replace, and add components as appropriate according to the embodiment. The control unit 21 may include a plurality of processors. The control unit 21 may be composed of an FPGA. The storage unit 22 may be composed of a RAM and a ROM included in the control unit 21. The storage unit 22 may be composed of an auxiliary storage device such as a hard disk drive or a solid state drive. Further, the RC20 may be a general-purpose desktop PC, a tablet PC, or the like, depending on the object to be controlled, in addition to the information processing device designed exclusively for the provided service.

(ロボットアーム)
次に、ロボットアーム30について説明する。ロボットアーム30は、所望の作業を実施可能に適宜構成されてよい。図4の例では、ロボットアーム30は、起点となる基台部301、可動軸となる2つの関節部302、骨格を形成する2つのリンク部303、及び先端に取り付けられるエンドエフェクタ304を備えている。
(Robot arm)
Next, the robot arm 30 will be described. The robot arm 30 may be appropriately configured so that the desired work can be performed. In the example of FIG. 4, the robot arm 30 includes a base portion 301 as a starting point, two joint portions 302 as movable axes, two link portions 303 forming a skeleton, and an end effector 304 attached to the tip. There is.

各関節部302は、サーボモータ、ブラシレスモータ等の駆動モータを備えており、各リンク部303を旋回又は回転可能に構成されている。また、各関節部302には、ロータリエンコーダ等の角度を検出可能な角度センサが取り付けられている。これにより、ロボットアーム30は、各関節部302の角度を特定可能に構成されている。 Each joint portion 302 includes a drive motor such as a servo motor or a brushless motor, and each link portion 303 is configured to be rotatable or rotatable. Further, an angle sensor capable of detecting an angle such as a rotary encoder is attached to each joint portion 302. Thereby, the robot arm 30 is configured so that the angle of each joint portion 302 can be specified.

エンドエフェクタ304は、工場内で実施する作業に応じて適宜形成される。このエンドエフェクタ304には、エンドエフェクタ304に作用する力を検出するように構成された力センサが取り付けられていてもよい。これにより、ロボットアーム30は、エンドエフェクタ304に作用する力を検出するように構成可能である。 The end effector 304 is appropriately formed according to the work to be performed in the factory. The end effector 304 may be equipped with a force sensor configured to detect a force acting on the end effector 304. Thereby, the robot arm 30 can be configured to detect the force acting on the end effector 304.

ロボットアーム30は、各関節部302、各リンク部303及びエンドエフェクタ304に応じて、可動範囲308を有している。すなわち、可動範囲308は、各関節部302を駆動して、エンドエフェクタ304が到達可能な範囲である。本実施形態では、この可動範囲308内に、ロボットアーム30の動作を許可する許可範囲309が設定される。詳細は後述する。 The robot arm 30 has a movable range 308 according to each joint portion 302, each link portion 303, and an end effector 304. That is, the movable range 308 is a range that can be reached by the end effector 304 by driving each joint portion 302. In the present embodiment, a permission range 309 that permits the operation of the robot arm 30 is set within the movable range 308. Details will be described later.

なお、ロボットアーム30の具体的な構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、関節部302及びリンク部303の数は、実施の形態に応じて適宜選択されてよい。また、各関節部302には、上記角度センサの他に、トルクセンサが取り付けられていてもよい。これにより、各関節部302をトルクにより制御することができる。 Regarding the specific configuration of the robot arm 30, components can be omitted, replaced, or added as appropriate according to the embodiment. For example, the number of joint portions 302 and link portions 303 may be appropriately selected according to the embodiment. Further, in addition to the angle sensor, a torque sensor may be attached to each joint portion 302. Thereby, each joint portion 302 can be controlled by torque.

(ディスプレイ)
本実施形態では、ディスプレイ32は、ロボットアームシステム2(ロボットアーム30)のステータスを表示するのに利用される。そのため、ディスプレイ32は、当該ステータスを表示可能であれば特に限定されなくてもよく、公知の液晶ディスプレイ、タッチパネルディスプレイ等が用いられてよい。
(display)
In this embodiment, the display 32 is used to display the status of the robot arm system 2 (robot arm 30). Therefore, the display 32 does not have to be particularly limited as long as the status can be displayed, and a known liquid crystal display, touch panel display, or the like may be used.

(カメラ)
本実施形態では、カメラ31は、ロボットアームシステム2(ロボットアーム30)の可動範囲308の状況を撮影するように配置される。これにより、カメラ31により撮影された撮影画像には、可動範囲308の状況が映る。この撮影画像は、可動範囲308の状況を示す状況情報の一例である。なお、カメラ31は、所定の場所に固定されてもよいし、モータ等により撮影方向(向き)を変更可能に構成されてもよい。カメラ31には、一般のデジタルカメラ、ビデオカメラ、360度カメラ等が用いられてよいし、可視光撮影用でも赤外光撮影用カメラであってもよい。
(camera)
In the present embodiment, the camera 31 is arranged so as to capture the situation of the movable range 308 of the robot arm system 2 (robot arm 30). As a result, the situation of the movable range 308 is reflected in the captured image captured by the camera 31. This captured image is an example of situation information indicating the situation of the movable range 308. The camera 31 may be fixed at a predetermined position, or may be configured so that the shooting direction (orientation) can be changed by a motor or the like. As the camera 31, a general digital camera, a video camera, a 360-degree camera, or the like may be used, or a camera for visible light photography or an infrared light photography may be used.

<ロボット装置>
ロボット装置5は、例えば、CPU等で構成される制御部、プログラムなどを記憶する記憶部、RC20と通信を行う通信インタフェース、上記ロボットアーム30と同様のロボットアーム、他律的又は自律的に移動するための車輪モジュール等を備える。これにより、ロボット装置5は、工場内を移動し、所定の作業を行うように適宜構成される。なお、ロボット装置5の種類は、特に限定されず、もちろん人型でなくてもよく、工場内で行う作業に応じて適宜選択されてよい。
<Robot device>
The robot device 5 includes, for example, a control unit composed of a CPU or the like, a storage unit that stores programs, a communication interface that communicates with the RC20, a robot arm similar to the robot arm 30, and other robotic or autonomous movement. It is equipped with a wheel module and the like for this purpose. As a result, the robot device 5 is appropriately configured to move in the factory and perform a predetermined work. The type of the robot device 5 is not particularly limited, and of course, it does not have to be a humanoid type, and may be appropriately selected according to the work to be performed in the factory.

<ユーザ端末>
ユーザ端末4は、例えば、CPU等で構成される制御部、プログラム等を記憶する記憶部、ネットワークを介した通信を行うための通信インタフェース、及び入出力装置が電気的に接続されたコンピュータである。ユーザ端末4は、学習装置1を運用するサービス提供者に対して依頼者が機械学習の依頼(学習依頼)を行うのに利用される。ユーザ端末4には、例えば、ネットワークに接続可能なデスクトップPC、タブレットPC、スマートフォンを含む携帯電話等が用いられてよい。
<User terminal>
The user terminal 4 is, for example, a computer to which a control unit composed of a CPU or the like, a storage unit for storing programs or the like, a communication interface for performing communication via a network, and an input / output device are electrically connected. .. The user terminal 4 is used by the client to request machine learning (learning request) to the service provider who operates the learning device 1. As the user terminal 4, for example, a desktop PC, a tablet PC, a mobile phone including a smartphone, or the like that can be connected to a network may be used.

[ソフトウェア構成]
<学習装置>
次に、図5を用いて、本実施形態に係る学習装置1のソフトウェア構成の一例を説明する。図5は、本実施形態に係る学習装置1のソフトウェア構成の一例を模式的に例示する。
[Software configuration]
<Learning device>
Next, an example of the software configuration of the learning device 1 according to the present embodiment will be described with reference to FIG. FIG. 5 schematically illustrates an example of the software configuration of the learning device 1 according to the present embodiment.

学習装置1の制御部11は、記憶部12に記憶された学習プログラム121をRAMに展開する。そして、制御部11は、RAMに展開された学習プログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示されるとおり、本実施形態に係る学習装置1は、ソフトウェアモジュールとして、学習依頼受付部110、許可範囲設定部111、状況取得部112、遠隔操作部113、学習データ収集部114、学習処理部115、能力付与データ生成部116、及び配信部117を備えるコンピュータとして構成される。 The control unit 11 of the learning device 1 expands the learning program 121 stored in the storage unit 12 into the RAM. Then, the control unit 11 interprets and executes the learning program 121 expanded in the RAM by the CPU to control each component. As a result, as shown in FIG. 5, the learning device 1 according to the present embodiment has a learning request receiving unit 110, a permission range setting unit 111, a status acquisition unit 112, a remote operation unit 113, and a learning data collecting unit as software modules. It is configured as a computer including 114, a learning processing unit 115, an ability-imparting data generation unit 116, and a distribution unit 117.

学習依頼受付部110は、依頼者から、遠隔地に配置された学習対象装置の指定及び指定された学習対象装置に機械学習により獲得される能力の指定を学習依頼として受け付ける。本実施形態では、依頼者から、ロボットアームシステム2の機械学習の依頼を受け付けたものとする。 The learning request reception unit 110 receives from the requester the designation of the learning target device located at a remote location and the designation of the ability acquired by the designated learning target device by machine learning as a learning request. In the present embodiment, it is assumed that the request for machine learning of the robot arm system 2 is received from the client.

許可範囲設定部111は、学習対象装置の可動範囲内で、当該学習対象装置の動作を許可する許可範囲を設定する。本実施形態では、許可範囲設定部111は、上記ロボットアーム30の可動範囲308内において許可範囲309の設定を行う。 The permission range setting unit 111 sets a permission range for permitting the operation of the learning target device within the movable range of the learning target device. In the present embodiment, the permission range setting unit 111 sets the permission range 309 within the movable range 308 of the robot arm 30.

状況取得部112は、学習対象装置の可動範囲の状況を監視する監視装置から、当該可動範囲の状況を示す状況情報を取得する。本実施形態では、状況取得部112は、可動範囲308を撮影するように配置されたカメラ31から、当該カメラ31により撮影された撮影画像を状況情報として取得する。 The status acquisition unit 112 acquires status information indicating the status of the movable range from the monitoring device that monitors the status of the movable range of the learning target device. In the present embodiment, the situation acquisition unit 112 acquires the captured image captured by the camera 31 as the status information from the camera 31 arranged so as to capture the movable range 308.

遠隔操作部113は、制御データを学習対象装置に送信することで、学習依頼で指定された能力に関連する動作を実行するように学習対象装置を遠隔操作する。学習データ収集部114は、遠隔操作の結果に基づいて、指定された能力の機械学習のための学習データを収集する。 By transmitting the control data to the learning target device, the remote control unit 113 remotely controls the learning target device so as to execute an operation related to the ability specified in the learning request. The learning data collection unit 114 collects learning data for machine learning of a specified ability based on the result of remote control.

本実施形態では、遠隔操作部113は、ネットワーク10を介して、所定の動作を指令する制御データをRC20に送信することで、ロボットアームシステム2のロボットアーム30を遠隔操作する。このとき、遠隔操作部113は、カメラ31から取得した撮影画像に基づいて、指定された許可範囲309内で動作するようにロボットアームシステム2を遠隔操作する。そして、学習データ収集部114は、指定された能力に対して達成すべき作業目標を示す目標データ及び当該作業目標を達成するまでの動作過程において得られるセンサデータを入力データとし、当該作業目標を達成するまでの動作過程においてRC20に送信した制御データを教師データとする学習データ122を収集する。 In the present embodiment, the remote control unit 113 remotely controls the robot arm 30 of the robot arm system 2 by transmitting control data instructing a predetermined operation to the RC 20 via the network 10. At this time, the remote control unit 113 remotely controls the robot arm system 2 so as to operate within the designated permission range 309 based on the captured image acquired from the camera 31. Then, the learning data collection unit 114 uses the target data indicating the work goal to be achieved for the designated ability and the sensor data obtained in the operation process until the work goal is achieved as input data, and sets the work goal. The learning data 122 using the control data transmitted to the RC 20 as the teacher data in the operation process until the achievement is collected is collected.

学習処理部115は、収集した学習データを用いて、指定された能力を獲得させるように学習器の機械学習を行う。能力付与データ生成部116は、機械学習が完了した学習済みの学習器を学習対象装置に装備させることで指定された能力を学習対象装置に付与するための能力付与データを作成する。配信部117は、生成した能力付与データを学習対象装置に配信する。 The learning processing unit 115 uses the collected learning data to perform machine learning of the learning device so as to acquire a designated ability. The ability-giving data generation unit 116 creates the ability-giving data for imparting the specified ability to the learning target device by equipping the learning target device with the learned learning device for which machine learning has been completed. The distribution unit 117 distributes the generated ability-imparting data to the learning target device.

本実施形態では、学習処理部115は、ロボットアームシステム2から収集した学習データ122を用いて、ニューラルネットワーク6の機械学習を行う。能力付与データ生成部116は、学習済みのニューラルネットワーク6をRC20に装備させるための能力付与データ123を生成する。配信部117は、ネットワーク10を介して、生成した能力付与データ123をRC20に配信する。 In the present embodiment, the learning processing unit 115 performs machine learning of the neural network 6 using the learning data 122 collected from the robot arm system 2. The ability-giving data generation unit 116 generates the ability-giving data 123 for equipping the RC20 with the trained neural network 6. The distribution unit 117 distributes the generated capacity-imparting data 123 to the RC20 via the network 10.

(学習器)
次に、学習器について説明する。図5に示されるとおり、本実施形態に係る学習器は、ニューラルネットワーク6により構成される。ニューラルネットワーク6は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力から順に、入力層61、中間層(隠れ層)62、及び出力層63を備えている。
(Learning device)
Next, the learner will be described. As shown in FIG. 5, the learner according to the present embodiment is configured by the neural network 6. The neural network 6 is a multi-layered neural network used for so-called deep learning, and includes an input layer 61, an intermediate layer (hidden layer) 62, and an output layer 63 in order from the input.

なお、図5の例では、ニューラルネットワーク6は、1層の中間層62を備えており、入力層61の出力が中間層62の入力となり、中間層62の出力が出力層63の入力となっている。ただし、中間層62の数は1層に限られなくてもよく、ニューラルネットワーク6は、中間層62を2層以上備えてもよい。 In the example of FIG. 5, the neural network 6 includes the intermediate layer 62 of one layer, the output of the input layer 61 is the input of the intermediate layer 62, and the output of the intermediate layer 62 is the input of the output layer 63. ing. However, the number of intermediate layers 62 is not limited to one, and the neural network 6 may include two or more intermediate layers 62.

各層61〜63は、1又は複数のニューロンを備えている。例えば、入力層61のニューロンの数は、入力に利用する入力データに応じて設定することができる。中間層62のニューロンの数は、実施の形態に応じて適宜設定することができる。また、出力層63のニューロンの数は、出力する制御データに応じて設定することができる。各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。 Each layer 61-63 comprises one or more neurons. For example, the number of neurons in the input layer 61 can be set according to the input data used for input. The number of neurons in the intermediate layer 62 can be appropriately set according to the embodiment. Further, the number of neurons in the output layer 63 can be set according to the control data to be output. A threshold is set for each neuron, and basically, the output of each neuron is determined by whether or not the sum of the products of each input and each weight exceeds the threshold.

隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。図5の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。 Neurons in adjacent layers are appropriately connected to each other, and a weight (connection load) is set for each connection. In the example of FIG. 5, each neuron is connected to all neurons in the adjacent layer, but the connection of neurons does not have to be limited to such an example and is appropriately set according to the embodiment. You can.

学習処理部115は、ニューラルネットワークの学習処理により、収集した学習データ122に含まれる目標データ及びセンサデータを入力すると、制御データを出力値として出力するようにニューラルネットワーク6を構築する。能力付与データ生成部116は、構築したニューラルネットワーク6の構成(例えば、ニューラルネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を含む能力付与データ123を生成する。 The learning processing unit 115 constructs the neural network 6 so as to output the control data as an output value when the target data and the sensor data included in the collected learning data 122 are input by the learning process of the neural network. The ability-giving data generation unit 116 configures the constructed neural network 6 (for example, the number of layers of the neural network, the number of neurons in each layer, the connection relationship between neurons, the transmission function of each neuron), and the weight of the connection between each neuron. , And generate capacity-imparting data 123 containing information indicating the threshold of each neuron.

<ロボットアームシステム>
次に、図6を用いて、本実施形態に係るロボットアームシステム2のソフトウェア構成の一例を説明する。図6は、本実施形態に係るRC20を含むロボットアームシステム2のソフトウェア構成の一例を模式的に例示する。
<Robot arm system>
Next, an example of the software configuration of the robot arm system 2 according to the present embodiment will be described with reference to FIG. FIG. 6 schematically illustrates an example of the software configuration of the robot arm system 2 including the RC20 according to the present embodiment.

RC20の制御部21は、記憶部22に記憶された制御プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された制御プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図6に示されるとおり、本実施形態に係るRC20を含むロボットアームシステム2は、ソフトウェアモジュールとして、遠隔操作受付部211、動作処理部212、表示制御部213、及び通知部214を備えるコンピュータとして構成される。 The control unit 21 of the RC20 expands the control program 221 stored in the storage unit 22 into the RAM. Then, the control unit 21 interprets and executes the control program 221 expanded in the RAM by the CPU to control each component. As a result, as shown in FIG. 6, the robot arm system 2 including the RC20 according to the present embodiment includes a remote control reception unit 211, an operation processing unit 212, a display control unit 213, and a notification unit 214 as software modules. Configured as a computer.

遠隔操作受付部211は、指定された能力に関連する学習のための動作の実行を指示する遠隔操作の指令を学習装置1から受け付ける。動作処理部212は、受け付けた遠隔操作の指令に従って、指定された能力に関連する動作を実行する。表示制御部213は、遠隔操作の指令に従って動作を実行している間に、学習装置1の遠隔操作による動作中であることディスプレイ32に表示させる。通知部214は、遠隔操作の指令に従って動作を実行している間に、周辺装置(例えば、ロボット装置5)に対して、学習装置1の遠隔操作による動作中であることを通知する。 The remote control reception unit 211 receives a remote control command from the learning device 1 instructing the execution of an operation for learning related to the specified ability. The motion processing unit 212 executes the motion related to the designated ability according to the received remote control command. The display control unit 213 causes the display 32 to display that the learning device 1 is being operated by remote control while the operation is being executed in accordance with the remote control command. The notification unit 214 notifies the peripheral device (for example, the robot device 5) that the learning device 1 is being operated by remote control while the operation is being executed in accordance with the remote control command.

<その他>
学習装置1及びロボットアームシステム2(RC20)の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、学習装置1及びRC20の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、学習装置1及びRC20それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
<Others>
Each software module of the learning device 1 and the robot arm system 2 (RC20) will be described in detail in an operation example described later. In this embodiment, an example in which each software module of the learning device 1 and the RC20 is realized by a general-purpose CPU is described. However, some or all of the above software modules may be implemented by one or more dedicated processors. Further, with respect to the software configurations of the learning device 1 and the RC20, software modules may be omitted, replaced, or added as appropriate according to the embodiment.

§3 動作例
[学習装置]
次に、図7を用いて、学習装置1の動作例を説明する。図7は、本実施形態に係る学習装置1の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
§3 Operation example [Learning device]
Next, an operation example of the learning device 1 will be described with reference to FIG. 7. FIG. 7 is a flowchart illustrating an example of the processing procedure of the learning device 1 according to the present embodiment. The processing procedure described below is only an example, and each processing may be changed as much as possible. Further, with respect to the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS101)
ステップS101では、制御部11は、学習依頼受付部110として動作し、依頼者から学習依頼を受け付ける。例えば、依頼者は、ユーザ端末4を操作して、機械学習させる対象となる学習対象装置の指定、及び学習対象装置に機械学習により獲得させる能力の指定を行う。この学習依頼の入力は、依頼者本人により行われるのではなく、依頼者から依頼内容を聞いた者により行われてもよい。すなわち、依頼内容の入力は、依頼者本人によって実施されなくてもよい。学習対象装置及び獲得対象の能力の指定が完了すると、制御部11は、次のステップS102に処理を進める。
(Step S101)
In step S101, the control unit 11 operates as the learning request receiving unit 110 and receives the learning request from the requester. For example, the client operates the user terminal 4 to specify the learning target device to be machine-learned and the ability to be acquired by the learning target device by machine learning. The input of this learning request may not be performed by the requester himself, but may be performed by a person who has heard the request contents from the requester. That is, the input of the request contents does not have to be performed by the requester himself / herself. When the designation of the learning target device and the acquisition target ability is completed, the control unit 11 proceeds to the next step S102.

なお、本ステップS101では、学習装置1は、学習対象装置の指定を受け付けることにより、当該学習対象装置の遠隔操作に利用する情報を取得する。例えば、学習装置1は、ロボットアームシステム2が学習対象装置に指定されたことに応じて、ロボットアームシステム2の遠隔操作に利用する情報としてRC20のIPアドレス等を取得する。 In this step S101, the learning device 1 receives the designation of the learning target device and acquires the information used for the remote control of the learning target device. For example, the learning device 1 acquires the IP address of the RC20 or the like as information used for remote control of the robot arm system 2 in response to the designation of the robot arm system 2 as the learning target device.

また、学習装置1は、学習対象装置の種類に応じて、機械学習により獲得可能な能力の一覧を依頼者に提示することで、機械学習の対象となる能力の指定を受け付けてもよい。機械学習の対象となる能力の一覧は、学習対象装置毎にテンプレートとして予め用意されてもよい。 Further, the learning device 1 may accept the designation of the ability to be the target of machine learning by presenting the requester with a list of abilities that can be acquired by machine learning according to the type of the device to be learned. A list of abilities to be subject to machine learning may be prepared in advance as a template for each device to be learned.

機械学習の対象となる能力は、学習対象装置に実装可能なあらゆる能力から適宜選択されてよい。例えば、ロボットアーム30が部品の移動、取り付け、加工、バリ取り、はんだ付け、溶接等の作業に利用されている場合、新たな対象物に対して当該作業を実施する能力等が機械学習の対象に指定されてよい。また、それらの作業が既に運用されている場合には、その運用中の当該作業を効率的に実施する能力等が機械学習の対象に指定されてよい。 The ability to be the target of machine learning may be appropriately selected from all the abilities that can be implemented in the device to be learned. For example, when the robot arm 30 is used for work such as moving, attaching, processing, deburring, soldering, and welding parts, the ability to perform the work on a new object is the target of machine learning. May be specified in. In addition, when those works are already in operation, the ability to efficiently carry out the work during the operation may be designated as the target of machine learning.

また、制御部11は、本ステップS101において、機械学習により獲得させる能力の指定と共に、当該能力の達成条件の入力を受け付けてもよい。能力の達成条件とは、学習対象装置に獲得させる能力の付加的な条件であり、例えば、ある指定された作業を何秒以内で行うといった時間条件である。 Further, in the step S101, the control unit 11 may specify the ability to be acquired by machine learning and accept the input of the achievement condition of the ability. The ability achievement condition is an additional condition of the ability to be acquired by the learning target device, for example, a time condition such that a certain designated work is performed within a few seconds.

(ステップS102)
ステップS102では、制御部11は、許可範囲設定部111として動作し、ステップS101で指定された学習対象装置の可動範囲内に、当該学習対象装置の動作を許可する許可範囲を設定する。本実施形態では、制御部11は、ロボットアーム30の可動範囲308内で、当該ロボットアーム30の動作を許可する許可範囲309を設定する。許可範囲309の設定が完了すると、制御部11は、次のステップS103に処理を進める。
(Step S102)
In step S102, the control unit 11 operates as the permission range setting unit 111, and sets the permission range for permitting the operation of the learning target device within the movable range of the learning target device specified in step S101. In the present embodiment, the control unit 11 sets a permission range 309 that permits the operation of the robot arm 30 within the movable range 308 of the robot arm 30. When the setting of the permission range 309 is completed, the control unit 11 proceeds to the next step S103.

なお、許可範囲309の設定は適宜行われてよい。例えば、制御部11は、オペレータから、許可範囲309の指定を受け付けてもよい。この場合、オペレータは、入力装置14を操作することで、可動範囲308内に許可範囲309を設定する。この際、学習装置1は、可動範囲308の状況を撮影するカメラ31から撮影画像を取得し、取得した撮影画像を出力装置15に出力してもよい。これにより、オペレータは、出力される撮影画像内で、ステップS101で指定された能力に無関係な場所等を省いた上で、許可範囲309を指定することができる。また、カメラ31から取得した撮影画像の画像処理結果に基づいて、許可範囲309をリアルタイムに変更してもよい。例えば、画像処理により可動範囲308内に人又は物体が存在すると判定した場合には、当該人又は物体が存在する部分を範囲から外し、その時点での許可範囲309を設定してもよい。 The permission range 309 may be set as appropriate. For example, the control unit 11 may accept the designation of the permission range 309 from the operator. In this case, the operator operates the input device 14 to set the permitted range 309 within the movable range 308. At this time, the learning device 1 may acquire a photographed image from the camera 31 that photographs the situation of the movable range 308, and output the acquired photographed image to the output device 15. As a result, the operator can specify the permission range 309 in the output captured image after omitting a place irrelevant to the ability specified in step S101. Further, the permission range 309 may be changed in real time based on the image processing result of the captured image acquired from the camera 31. For example, when it is determined by image processing that a person or an object exists within the movable range 308, the portion where the person or the object exists may be excluded from the range, and the permitted range 309 at that time may be set.

また、例えば、制御部11は、依頼者から、許可範囲309の指定を受け付けてもよい。この場合、制御部11は、上記ステップS101において、学習依頼と共に、許可範囲309の指定を受け付けてもよい。これにより、制御部11は、依頼者の入力に基づいて、可動範囲308内に許可範囲309を設定することができる。 Further, for example, the control unit 11 may accept the designation of the permission range 309 from the requester. In this case, the control unit 11 may accept the designation of the permission range 309 together with the learning request in step S101. As a result, the control unit 11 can set the permission range 309 within the movable range 308 based on the input of the requester.

また、例えば、制御部11は、ステップS101で指定された能力に基づいて、可動範囲308内に許可範囲309を自動的に設定してもよい。この場合、制御部11は、ステップS101で指定された能力の実施に関連する領域を特定し、特定した領域を許可範囲309に設定してもよい。 Further, for example, the control unit 11 may automatically set the permission range 309 within the movable range 308 based on the ability specified in step S101. In this case, the control unit 11 may specify an area related to the implementation of the capability specified in step S101, and set the specified area in the permission range 309.

(ステップS103)
ステップS103では、制御部11は、状況取得部112として動作し、ステップS101で指定された学習対象装置の可動範囲の状況を監視する監視装置から、当該可動範囲の状況を示す状況情報を取得する。本実施形態では、制御部11は、ステップS101で取得した情報を利用してRC20にアクセスして、RC20に接続されたカメラ31を利用して、可動範囲308の状況を撮影する。これにより、制御部11は、可動範囲308の状況を映した撮影画像を状況情報として取得することができる。撮影画像を取得すると、制御部11は、次のステップS104に処理を進める。
(Step S103)
In step S103, the control unit 11 operates as the status acquisition unit 112, and acquires status information indicating the status of the movable range from the monitoring device that monitors the status of the movable range of the learning target device specified in step S101. .. In the present embodiment, the control unit 11 accesses the RC20 using the information acquired in step S101, and uses the camera 31 connected to the RC20 to photograph the situation of the movable range 308. As a result, the control unit 11 can acquire a captured image showing the situation of the movable range 308 as the situation information. When the captured image is acquired, the control unit 11 proceeds to the next step S104.

(ステップS104)
ステップS104では、制御部11は、遠隔操作部113として動作し、制御データを学習対象装置に送信することで、ステップS101で指定された能力に関連する動作を実行するように学習対象装置を遠隔操作する。本実施形態では、制御部11は、ネットワーク10を介して、ステップS101で指定された能力に関連する所定の動作を指令する制御データをRC20に送信する。制御データは、例えば、各関節部302の駆動モータの駆動量を規定する。RC20は、後述するとおり、受信した制御データに基づいて、ロボットアーム30の各関節部302を駆動する。これにより、制御部11は、ロボットアームシステム2を遠隔操作する。ロボットアームシステム2の遠隔操作を行った後、制御部11は、次のステップS105に処理を進める。
(Step S104)
In step S104, the control unit 11 operates as the remote control unit 113, and by transmitting the control data to the learning target device, the learning target device is remotely controlled so as to execute the operation related to the ability specified in step S101. Manipulate. In the present embodiment, the control unit 11 transmits control data for instructing a predetermined operation related to the capability specified in step S101 to the RC 20 via the network 10. The control data defines, for example, the driving amount of the driving motor of each joint portion 302. As will be described later, the RC 20 drives each joint portion 302 of the robot arm 30 based on the received control data. As a result, the control unit 11 remotely controls the robot arm system 2. After performing the remote control of the robot arm system 2, the control unit 11 proceeds to the next step S105.

遠隔操作による動作の内容は、適宜決定されてよい。例えば、遠隔操作による動作の内容は、オペレータにより決定されてもよい。また、例えば、それぞれロボットアーム30の異なる動作を規定する複数のテンプレートが用意されてもよい。この場合、制御部11は、テンプレートをランダムに選択することで、遠隔操作による動作の内容を決定してもよい。また、制御部11は、繰り返し遠隔操作する間に、動的計画法等の手法を用いて、ステップS101で指定された獲得対象の能力に適するように当該遠隔操作による動作の内容を決定してもよい。更に、制御部11は、当該遠隔操作により、複数の工程を含む一連の動作をロボットアームシステム2に実行させてもよい。 The content of the operation by remote control may be appropriately determined. For example, the content of the operation by remote control may be determined by the operator. Further, for example, a plurality of templates may be prepared, each of which defines different movements of the robot arm 30. In this case, the control unit 11 may determine the content of the operation by remote control by randomly selecting the template. Further, the control unit 11 determines the content of the operation by the remote control so as to be suitable for the ability of the acquisition target specified in step S101 by using a method such as dynamic programming during the repeated remote control. May be good. Further, the control unit 11 may cause the robot arm system 2 to execute a series of operations including a plurality of steps by the remote control.

なお、本実施形態では、上記ステップS102では、可動範囲308内に許可範囲309が設定され、かつ、上記ステップS103により、制御部11は、可動範囲308の状況を撮影した撮影画像をカメラ31から取得している。そこで、本ステップS104では、制御部11は、カメラ31から取得した撮影画像に基づいて、設定された許可範囲309内でロボットアーム30が動作するようにロボットアームシステム2を遠隔操作する。すなわち、制御部11は、カメラ31から取得した撮影画像を利用して、ロボットアーム30が許可範囲309の外に出ていないかどうかを確認しながら、ロボットアームシステム2の遠隔操作を行う。 In the present embodiment, in step S102, the permission range 309 is set within the movable range 308, and in step S103, the control unit 11 captures a captured image of the situation of the movable range 308 from the camera 31. Have acquired. Therefore, in this step S104, the control unit 11 remotely controls the robot arm system 2 so that the robot arm 30 operates within the set permission range 309 based on the captured image acquired from the camera 31. That is, the control unit 11 remotely controls the robot arm system 2 while confirming whether or not the robot arm 30 is out of the permitted range 309 by using the captured image acquired from the camera 31.

また、制御部11は、許可範囲309内に侵入物(例えば、人、物体等)が侵入したか否かを監視する。許可範囲309内に侵入物が侵入したか否かは、例えば、テンプレートマッチング等の公知の画像処理により判定可能である。制御部11は、許可範囲309内に侵入物が侵入したと判定した場合に、ロボットアームシステム2に対する遠隔操作の指令の送信を一時停止(中断)する。このとき、制御部11は、侵入した侵入物を許可範囲309外に出すためのアナウンス実施の指令をロボットアームシステム2に送信してもよい。そして、許可範囲309から侵入物が退出した後に、制御部11は、ロボットアームシステム2に対する遠隔操作の指令の送信を再開する。これにより、許可範囲309内の安全性を確保することができる。 In addition, the control unit 11 monitors whether or not an intruder (for example, a person, an object, etc.) has invaded the permitted range 309. Whether or not an intruder has invaded the permitted range 309 can be determined by, for example, known image processing such as template matching. When the control unit 11 determines that an intruder has entered the permitted range 309, the control unit 11 suspends (interrupts) the transmission of the remote control command to the robot arm system 2. At this time, the control unit 11 may send a command for executing an announcement to the robot arm system 2 to move the intruded object out of the permitted range 309. Then, after the intruder exits from the permitted range 309, the control unit 11 resumes the transmission of the remote control command to the robot arm system 2. As a result, safety within the permitted range 309 can be ensured.

(ステップS105)
ステップS105では、制御部11は、学習データ収集部114として動作し、ステップS104による遠隔操作の結果に基づいて、指定された能力の機械学習のための学習データ122を収集する。学習データ122を収集し終えると、制御部11は、次のステップS106に処理を進める。
(Step S105)
In step S105, the control unit 11 operates as a learning data collecting unit 114, and collects learning data 122 for machine learning of the specified ability based on the result of the remote control in step S104. After collecting the learning data 122, the control unit 11 proceeds to the next step S106.

なお、学習データ122の内容は、学習器の種類、学習対象装置の種類、獲得対象の能力等に応じて適宜決定されてよい。本実施形態では、ニューラルネットワーク6が学習器として用いられ、ロボットアームシステム2が学習対象装置に指定され、ロボットアーム30が新たな作業を実施する又は運用中の作業をより効率的に実施する能力が獲得対象の能力として指定される。また、RC20は、達成すべき目標及び各関節部302の角度センサのセンサデータに基づいて、ロボットアーム30の動作を制御するとする。 The content of the learning data 122 may be appropriately determined according to the type of the learning device, the type of the learning target device, the ability of the acquisition target, and the like. In the present embodiment, the neural network 6 is used as a learning device, the robot arm system 2 is designated as a learning target device, and the robot arm 30 has the ability to perform a new work or a work in operation more efficiently. Is designated as the ability to be acquired. Further, it is assumed that the RC 20 controls the operation of the robot arm 30 based on the target to be achieved and the sensor data of the angle sensor of each joint portion 302.

この場合、制御部11は、ステップS101で指定された獲得対象の能力に応じて、達成すべき作業目標を示す目標データを作成する。目標データの内容は、実施の形態に応じて適宜決定されてよい。例えば、所定時間内に対象の作業を完遂することに応じて、目標データでは、ロボットアーム30の位置、角度、移動速度等が指定されてよい。また、ロボットアーム30の動作を改善する場合、制御部11は、ロボットアーム30の動作を撮影した撮影画像をカメラ31から取得し、取得した撮影画像を画像解析することで、ロボットアーム30の動作を改善するように、目標データの内容を決定してもよい。 In this case, the control unit 11 creates target data indicating the work target to be achieved according to the ability of the acquisition target specified in step S101. The content of the target data may be appropriately determined according to the embodiment. For example, the position, angle, moving speed, and the like of the robot arm 30 may be specified in the target data according to the completion of the target work within a predetermined time. When improving the operation of the robot arm 30, the control unit 11 acquires a photographed image of the operation of the robot arm 30 from the camera 31 and analyzes the acquired image to analyze the operation of the robot arm 30. The content of the target data may be determined so as to improve.

次に、制御部11は、ステップS104の遠隔操作の結果に基づいて、目標データにより示される作業目標をロボットアームシステム2が達成したか否かを判定する。目標データの示す作業目標をロボットアームシステム2が達成した場合、制御部11は、当該作業目標を達成するまでの動作過程において、RC20に送信した制御データを取得する。更に、制御部11は、当該作業目標を達成するまでの動作過程において、各関節部302の角度センサより検出したセンサデータをRC20から取得する。センサデータは、学習対象装置(ロボットアームシステム2)の状態を示す状態データの一例である。センサデータは、制御データにより示される指令によりロボットアーム30を駆動する前に取得されてよい。 Next, the control unit 11 determines whether or not the robot arm system 2 has achieved the work target indicated by the target data based on the result of the remote control in step S104. When the robot arm system 2 achieves the work target indicated by the target data, the control unit 11 acquires the control data transmitted to the RC 20 in the operation process until the work target is achieved. Further, the control unit 11 acquires sensor data detected from the angle sensor of each joint portion 302 from the RC 20 in the operation process until the work target is achieved. The sensor data is an example of state data indicating the state of the learning target device (robot arm system 2). The sensor data may be acquired before the robot arm 30 is driven by the command indicated by the control data.

そして、制御部11は、制御データを教師データとし、教師データとした制御データによる動作を行う直前に得られたセンサデータ及び目標データを入力データとして、目標データ及びセンサデータと制御データとを紐付けて組にする。これにより、制御部11は、目標データ及びセンサデータを入力データとして含み、かつ制御データを教師データとして含む学習データ122を収集する。すなわち、本ステップS105では、制御部11は、作業目標を達成できなかったときの遠隔操作の結果は無視し、指定された能力を達成したときの遠隔操作の結果から、当該能力の機械学習に利用するための学習データを収集する。 Then, the control unit 11 uses the control data as the teacher data, and uses the sensor data and the target data obtained immediately before performing the operation based on the control data as the teacher data as the input data, and links the target data, the sensor data, and the control data. Attach and make a set. As a result, the control unit 11 collects the learning data 122 including the target data and the sensor data as input data and the control data as teacher data. That is, in this step S105, the control unit 11 ignores the result of the remote control when the work target cannot be achieved, and from the result of the remote control when the specified ability is achieved, the machine learning of the ability is performed. Collect learning data for use.

なお、作業目標を達成したか否かは適宜判定されてよい。例えば、制御部11は、遠隔操作の結果の写る撮影画像をカメラ31から取得し、取得した撮影画像を画像解析することで、作業目標を達成したか否かを判定してもよい。また、ロボットアームシステム2及びその周囲に設けられた各種センサ(角度センサ等)により、遠隔操作の結果を得るようにしてもよい。この場合、制御部11は、ロボットアームシステム2及びその周囲に設けられた各種センサ(角度センサ等)の検出結果に基づいて、作業目標を達成したか否かを判定してもよい。また、上記ステップS101において、獲得対象となる能力の指定と共に、当該能力の達成条件の入力を受け付けている場合には、制御部11は、その達成条件を達成したか否かを適宜判定してもよい。 Whether or not the work goal has been achieved may be appropriately determined. For example, the control unit 11 may acquire a captured image in which the result of the remote control is captured from the camera 31 and analyze the acquired captured image to determine whether or not the work target has been achieved. Further, the result of remote control may be obtained by the robot arm system 2 and various sensors (angle sensors and the like) provided around the robot arm system 2. In this case, the control unit 11 may determine whether or not the work target has been achieved based on the detection results of the robot arm system 2 and various sensors (angle sensors and the like) provided around the robot arm system 2. Further, in step S101, when the input of the achievement condition of the ability is accepted together with the designation of the ability to be acquired, the control unit 11 appropriately determines whether or not the achievement condition has been achieved. May be good.

(ステップS106)
ステップS106では、制御部11は、十分な件数の学習データ122を収集したか否かを判定する。十分な件数の学習データ122を収集したと判定した場合には、制御部11は、次のステップS107に処理を進める。他方、十分な件数の学習データ122を収集していないと判定した場合には、制御部11は、ステップS103〜S105の処理を繰り返す。
(Step S106)
In step S106, the control unit 11 determines whether or not a sufficient number of learning data 122s have been collected. When it is determined that a sufficient number of learning data 122s have been collected, the control unit 11 proceeds to the next step S107. On the other hand, if it is determined that a sufficient number of learning data 122s have not been collected, the control unit 11 repeats the processes of steps S103 to S105.

なお、当該判定は、閾値を利用して行われてよい。すなわち、制御部11は、収集した学習データ122の件数と閾値とを比較することで、十分な件数の学習データ122を収集したか否かを判定してもよい。このとき、閾値は、オペレータにより設定されてもよいし、機械学習の対象となる能力に応じて設定されてもよい。閾値の設定方法は、実施の形態に応じて適宜選択可能である。 The determination may be made using the threshold value. That is, the control unit 11 may determine whether or not a sufficient number of learning data 122s have been collected by comparing the number of collected learning data 122s with the threshold value. At this time, the threshold value may be set by the operator or may be set according to the ability to be the target of machine learning. The threshold setting method can be appropriately selected according to the embodiment.

(ステップS107)
ステップS107では、制御部11は、機械学習のための遠隔操作が完了したことを示す完了通知をロボットアームシステム2に送信する。完了通知の送信が完了すると、制御部11は、次のステップS108に処理を進める。
(Step S107)
In step S107, the control unit 11 transmits a completion notification indicating that the remote control for machine learning has been completed to the robot arm system 2. When the transmission of the completion notification is completed, the control unit 11 proceeds to the next step S108.

(ステップS108)
ステップS108では、制御部11は、学習処理部115として動作し、ステップS105により収集した学習データ122を用いて、指定された能力を獲得させるようにニューラルネットワーク6の機械学習を行う。
(Step S108)
In step S108, the control unit 11 operates as a learning processing unit 115, and uses the learning data 122 collected in step S105 to perform machine learning of the neural network 6 so as to acquire a designated ability.

具体的には、まず、制御部11は、機械学習の処理対象となるニューラルネットワーク6を用意する。用意するニューラルネットワーク6の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。再学習を行う場合には、制御部11は、再学習を行う対象となるニューラルネットワークの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す学習結果データに基づいて、ニューラルネットワーク6を用意してもよい。 Specifically, first, the control unit 11 prepares a neural network 6 to be processed by machine learning. The configuration of the neural network 6 to be prepared, the initial value of the weight of the connection between each neuron, and the initial value of the threshold value of each neuron may be given by the template or by the input of the operator. When performing relearning, the control unit 11 determines the neural network 6 based on the configuration of the neural network to be relearned, the weight of the connection between each neuron, and the learning result data indicating the threshold value of each neuron. May be prepared.

次に、制御部11は、ステップS105で収集した学習データ122に含まれる目標データ及びセンサデータを入力データとし、制御データを教師データとして、ニューラルネットワーク6の学習を行う。このニューラルネットワーク6の学習には、勾配降下法、確率的勾配降下法等が用いられてよい。 Next, the control unit 11 learns the neural network 6 by using the target data and the sensor data included in the learning data 122 collected in step S105 as input data and the control data as training data. A gradient descent method, a stochastic gradient descent method, or the like may be used for learning the neural network 6.

例えば、制御部11は、学習データ122に含まれる目標データ及びセンサデータを入力層61に入力して、ニューラルネットワーク6の順伝搬方向の演算処理を行う。これにより、制御部11は、ニューラルネットワーク6の出力層63から出力値を得る。次に、制御部11は、出力層63から出力された出力値と学習データ122に含まれる制御データとの誤差を算出する。続いて、制御部11は、誤差逆伝搬法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部11は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。 For example, the control unit 11 inputs the target data and the sensor data included in the learning data 122 to the input layer 61, and performs arithmetic processing in the forward propagation direction of the neural network 6. As a result, the control unit 11 obtains an output value from the output layer 63 of the neural network 6. Next, the control unit 11 calculates an error between the output value output from the output layer 63 and the control data included in the learning data 122. Subsequently, the control unit 11 calculates the error of the connection weight between each neuron and the error of each threshold value of each neuron by using the error of the output value calculated by the error back propagation method. Then, the control unit 11 updates the weight of the connection between each neuron and the value of each threshold value of each neuron based on each calculated error.

制御部11は、各件の学習データ122について、出力層63から出力される出力値が対応する制御データと一致するまでこの一連の処理を繰り返すことにより、ニューラルネットワーク6の機械学習を行う。これにより、目標データ及びセンサデータを入力すると、対応する制御データを出力する学習済みのニューラルネットワーク6を構築することができる。ニューラルネットワーク6の機械学習が完了すると、制御部11は、次のステップS109に処理を進める。 The control unit 11 performs machine learning of the neural network 6 by repeating this series of processes for each learning data 122 until the output value output from the output layer 63 matches the corresponding control data. Thereby, when the target data and the sensor data are input, the trained neural network 6 that outputs the corresponding control data can be constructed. When the machine learning of the neural network 6 is completed, the control unit 11 proceeds to the next step S109.

(ステップS109)
ステップS109では、制御部11は、能力付与データ生成部116として動作し、機械学習が完了した学習済みのニューラルネットワーク6をロボットアームシステム2(RC20)に装備させることで指定された能力をロボットアームシステム2に付与するための能力付与データ123を生成する。能力付与データ123を生成した後、制御部11は、次のステップS110に処理を進める。
(Step S109)
In step S109, the control unit 11 operates as the ability granting data generation unit 116, and equips the robot arm system 2 (RC20) with the trained neural network 6 for which machine learning has been completed, so that the robot arm has the specified ability. The ability granting data 123 for granting to the system 2 is generated. After generating the ability granting data 123, the control unit 11 proceeds to the next step S110.

なお、能力付与データ123の形式は、実施の形態に応じて適宜決定されてよい。例えば、RC20が、ニューラルネットワークを用いた演算処理を実施している場合には、制御部11は、ステップS108で構築したニューラルネットワーク6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す学習結果データを能力付与データ123として生成してもよい。また、例えば、RC20がFPGAを備える場合には、制御部11は、ステップS108で構築したニューラルネットワーク6をFPGA内で実現するために当該FPGAに書き込むデータを能力付与データ123として生成してもよい。また、例えば、制御部11は、ステップS108で構築したニューラルネットワーク6による演算処理をRC20に実行させるためのプログラム又はプログラムを修正するパッチデータを能力付与データ123として生成してもよい。各形式の能力付与データ123は、公知のプログラム自動生成手法等を用いて、自動的に生成されてよい。 The format of the ability-imparting data 123 may be appropriately determined according to the embodiment. For example, when the RC20 performs arithmetic processing using a neural network, the control unit 11 determines the configuration of the neural network 6 constructed in step S108, the weight of the connection between each neuron, and the threshold value of each neuron. The learning result data indicating the above may be generated as the ability-imparting data 123. Further, for example, when the RC20 includes an FPGA, the control unit 11 may generate data to be written in the FPGA in order to realize the neural network 6 constructed in step S108 in the FPGA as the capacity granting data 123. .. Further, for example, the control unit 11 may generate a program for causing the RC 20 to execute the arithmetic processing by the neural network 6 constructed in step S108, or patch data for modifying the program as the ability granting data 123. The ability-imparting data 123 of each format may be automatically generated by using a known automatic program generation method or the like.

(ステップS110)
ステップS110では、配信部117として動作し、ネットワーク10を介して、ステップS109で生成した能力付与データ123をロボットアームシステム2に配信する。RC20は、受信した能力付与データ123をインストールすることで、ステップS101で指定された能力を獲得することができる。能力付与データ123の配信が完了すると、制御部11は、本動作例に係る処理を終了する。
(Step S110)
In step S110, the robot arm system 2 operates as the distribution unit 117 and distributes the ability granting data 123 generated in step S109 to the robot arm system 2 via the network 10. The RC20 can acquire the ability specified in step S101 by installing the received ability grant data 123. When the distribution of the capacity granting data 123 is completed, the control unit 11 ends the process related to this operation example.

[ロボットアームシステム]
次に、図8を用いて、ロボットアームシステム2の動作例を説明する。図8は、本実施形態に係るロボットアームシステム2の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[Robot arm system]
Next, an operation example of the robot arm system 2 will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of the processing procedure of the robot arm system 2 according to the present embodiment. The processing procedure described below is only an example, and each processing may be changed as much as possible. Further, with respect to the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS201)
ステップS201では、RC20の制御部21は、遠隔操作受付部211として動作し、指定された能力に関連する動作の実行を指示する遠隔操作の指令を学習装置1から受け付ける。本ステップS201は、本発明の「受付ステップ」の一例である。具体的には、制御部21は、上記ステップS104の制御データによる遠隔操作の指令を学習装置1から受け付ける。このとき、制御部21は、複数の動作の実行を指示する複数件の制御データを受信してもよい。制御データを受信すると、制御部21は、次のステップS202に処理を進める。
(Step S201)
In step S201, the control unit 21 of the RC20 operates as the remote control reception unit 211, and receives a remote control command from the learning device 1 instructing the execution of the operation related to the designated ability. This step S201 is an example of the "reception step" of the present invention. Specifically, the control unit 21 receives a remote control command from the learning device 1 based on the control data in step S104. At this time, the control unit 21 may receive a plurality of control data instructing the execution of the plurality of operations. Upon receiving the control data, the control unit 21 proceeds to the next step S202.

(ステップS202)
ステップS202では、制御部21は、動作処理部212として動作し、ステップS201で受け付けた遠隔操作の指令に従って、指定された能力に関連する動作を実行する。本ステップS202は、本発明の「実行ステップ」の一例である。本実施形態では、制御部21は、制御データに基づいて、各関節部302の駆動モータを駆動することにより、遠隔操作の指令に応じた動作をロボットアーム30に実行させる。本ステップS202によって遠隔操作の指令に従って動作を実行している間に、制御部21は、次のステップS203及びS204を実行する。
(Step S202)
In step S202, the control unit 21 operates as the operation processing unit 212, and executes the operation related to the designated ability in accordance with the remote control command received in step S201. This step S202 is an example of the "execution step" of the present invention. In the present embodiment, the control unit 21 drives the drive motor of each joint unit 302 based on the control data, so that the robot arm 30 executes an operation in response to a remote control command. The control unit 21 executes the following steps S203 and S204 while executing the operation in accordance with the remote control command in the step S202.

なお、上記学習装置1は、許可範囲309内に侵入物が侵入したか否かを監視し、許可範囲309内に侵入物が侵入したと判定した場合に、遠隔操作の実施を一時停止する。この際、制御部21は、侵入した侵入物を許可範囲309外に出すためのアナウンスをディスプレイ32に表示させてもよい。また、RC20がスピーカ(不図示)に接続している場合には、当該アナウンスをスピーカから出力してもよい。制御部21は、学習装置1からの指令に応じて、このアナウンスを実施してもよい。 The learning device 1 monitors whether or not an intruder has invaded the permitted range 309, and if it is determined that the intruder has invaded the permitted range 309, the remote control is temporarily suspended. At this time, the control unit 21 may display an announcement on the display 32 for moving the intruded object out of the permitted range 309. When the RC20 is connected to a speaker (not shown), the announcement may be output from the speaker. The control unit 21 may perform this announcement in response to a command from the learning device 1.

(ステップS203)
ステップS203では、制御部21は、表示制御部213として動作し、学習装置1の遠隔操作による動作中であることディスプレイ32に表示させる。本ステップS203は、本発明の「表示ステップ」の一例である。ディスプレイ32の表示制御が完了すると、制御部21は、次のステップS204に処理を進める。
(Step S203)
In step S203, the control unit 21 operates as the display control unit 213 and causes the display 32 to indicate that the learning device 1 is being operated by remote control. This step S203 is an example of the "display step" of the present invention. When the display control of the display 32 is completed, the control unit 21 proceeds to the next step S204.

ここで、ディスプレイ32に表示させる内容は、学習装置1の遠隔操作による動作中であることに関する内容であれば特に限定されなくてもよい。例えば、制御部21は、「遠隔操作による動作中」又は「遠隔操作による学習中」とディスプレイ32に表示してもよい。また、例えば、制御部21は、制御データを参照することで、学習装置1の遠隔操作による動作の内容をディスプレイ32に表示させてもよい。 Here, the content to be displayed on the display 32 is not particularly limited as long as it is related to the fact that the learning device 1 is being operated by remote control. For example, the control unit 21 may display “during operation by remote control” or “during learning by remote control” on the display 32. Further, for example, the control unit 21 may display the content of the operation of the learning device 1 by remote control on the display 32 by referring to the control data.

また、例えば、ステップS201において複数件の制御データを受信した場合、制御部21は、ステップS202により実行中の動作の次に実行する動作の内容をディスプレイ32に表示させてもよい。このとき、制御部21は、次に実行する動作の内容と共に、実行中の動作の内容をディスプレイ32に表示させてもよい。 Further, for example, when a plurality of control data are received in step S201, the control unit 21 may display the content of the operation to be executed next to the operation being executed in step S202 on the display 32. At this time, the control unit 21 may display the content of the operation being executed on the display 32 together with the content of the operation to be executed next.

また、例えば、制御部21は、ステップS202により実行中の動作が危険な動作又は通常よりも高速での動作である場合に、当該実行中の動作が危険な動作又は高速での動作であることをディスプレイ32に表示させてもよい。実行中の動作が危険な動作であることを示す表示内容は、実施の形態に応じて適宜決定されてよい。例えば、制御部21は、「只今実行中の動作は危険」又は「只今実行中の動作は高速での動作」とディスプレイ32に表示させてもよい。また、例えば、制御部21は、実行中の動作が危険な動作であることを示す表示内容として、ロボットアーム30の周囲にいる者に注意喚起を促すメッセージをディスプレイ32に表示させてもよい。 Further, for example, when the operation being executed in step S202 is a dangerous operation or an operation at a higher speed than usual, the control unit 21 is that the operation during the execution is a dangerous operation or an operation at a higher speed. May be displayed on the display 32. The display content indicating that the operation being executed is a dangerous operation may be appropriately determined according to the embodiment. For example, the control unit 21 may display on the display 32 that "the operation currently being executed is dangerous" or "the operation currently being executed is an operation at high speed". Further, for example, the control unit 21 may display a message on the display 32 for calling attention to a person around the robot arm 30 as a display content indicating that the operation being executed is a dangerous operation.

なお、実行中の動作が危険な動作であるか否かを判定する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部21は、危険な動作を規定した条件に基づいて、ステップS202により実行中の動作が危険な動作であるか否かを判定してもよい。また、例えば、対象の動作が危険であることを示す情報が制御データに含まれていてもよい。この場合、制御部21は、ステップS201で受信した制御データを参照することで、ステップS202により実行中の動作が危険な動作であるか否かを判定することができる。 The method for determining whether or not the operation being executed is a dangerous operation may be appropriately selected depending on the embodiment. For example, the control unit 21 may determine whether or not the operation being executed is a dangerous operation in step S202 based on the condition defining the dangerous operation. Further, for example, the control data may include information indicating that the target operation is dangerous. In this case, the control unit 21 can determine whether or not the operation being executed in step S202 is a dangerous operation by referring to the control data received in step S201.

(ステップS204)
ステップS204では、制御部21は、通知部214として動作し、通信インタフェース24を制御することで、学習装置1の遠隔操作による動作中であることを周辺装置(例えば、ロボット装置5)に通知する。本ステップS204は、本発明の「通知ステップ」の一例である。当該通知が完了すると、制御部21は、次のステップS205に処理を進める。
(Step S204)
In step S204, the control unit 21 operates as the notification unit 214 and controls the communication interface 24 to notify the peripheral device (for example, the robot device 5) that the learning device 1 is being operated by remote control. .. This step S204 is an example of the "notification step" of the present invention. When the notification is completed, the control unit 21 proceeds to the next step S205.

なお、当該通知を受信した周辺装置は、ロボットアームシステム2が学習装置1により遠隔操作されていることを認識することができる。これにより、周辺装置が、ロボットアーム30の遠隔操作による動作を阻害しないようにすることができる。例えば、工場内を移動可能に構成されたロボット装置5が、当該通知を受信したことに応じて、ロボットアーム30の近傍(特に、可動範囲308又は許可範囲309)に近付かないようにすることができる。すなわち、ロボットアーム30の遠隔操作による動作を阻害しないようにするため、遠隔操作中であることに応じた移動制限を設定し、ロボット装置5が、ロボットアーム30の近傍を避けて移動するようにすることができる。 The peripheral device that has received the notification can recognize that the robot arm system 2 is remotely controlled by the learning device 1. As a result, the peripheral device can be prevented from interfering with the operation of the robot arm 30 by remote control. For example, the robot device 5 configured to be movable in the factory may be kept away from the vicinity of the robot arm 30 (particularly, the movable range 308 or the permitted range 309) in response to receiving the notification. it can. That is, in order not to interfere with the operation of the robot arm 30 by remote control, a movement limit is set according to the remote control so that the robot device 5 moves while avoiding the vicinity of the robot arm 30. can do.

(ステップS205)
ステップS205では、制御部21は、学習装置1からの遠隔操作が完了したか否かを判定する。本実施形態では、遠隔操作が完了した際に、上記ステップS107により、学習装置1から完了通知が送信される。そのため、制御部21は、完了通知を受信したか否かによって、学習装置1による遠隔操作が完了したか否かを判定する。遠隔操作が完了したと判定した場合、換言すると、学習装置1からの遠隔操作が完了した後、制御部21は、次のステップS206に処理を進める。他方、遠隔操作が完了していないと判定した場合には、制御部21は、ステップS201〜S204の処理を繰り返す。
(Step S205)
In step S205, the control unit 21 determines whether or not the remote control from the learning device 1 is completed. In the present embodiment, when the remote control is completed, the learning device 1 transmits a completion notification in step S107. Therefore, the control unit 21 determines whether or not the remote control by the learning device 1 is completed depending on whether or not the completion notification is received. When it is determined that the remote control is completed, in other words, after the remote control from the learning device 1 is completed, the control unit 21 proceeds to the next step S206. On the other hand, if it is determined that the remote control has not been completed, the control unit 21 repeats the processes of steps S201 to S204.

(ステップS206)
ステップS206では、制御部21は、表示制御部213として動作し、学習装置1の遠隔操作による動作が完了したことをディスプレイ32に表示させる。本ステップS206は、本発明の「完了表示ステップ」の一例である。ディスプレイ32に表示させる内容は、学習装置1の遠隔操作による動作が完了したことに関する内容であれば特に限定されなくてもよい。例えば、制御部21は、「遠隔操作終了」又は「遠隔操作による動作は完了しました」とディスプレイ32に表示させてもよい。これにより、ロボットアームシステム2の周囲に存在する作業者に、学習装置1の遠隔操作による動作が完了し、突然動くことはないことを知らせることができる。当該完了表示が完了すると、制御部21は、次のステップS207に処理を進める。
(Step S206)
In step S206, the control unit 21 operates as the display control unit 213, and displays on the display 32 that the operation by remote control of the learning device 1 is completed. This step S206 is an example of the "completion display step" of the present invention. The content to be displayed on the display 32 may not be particularly limited as long as the content is related to the completion of the operation by remote control of the learning device 1. For example, the control unit 21 may display “remote control end” or “remote control operation completed” on the display 32. As a result, it is possible to notify the operator existing around the robot arm system 2 that the operation of the learning device 1 by remote control is completed and that the learning device 1 does not move suddenly. When the completion display is completed, the control unit 21 proceeds to the next step S207.

(ステップS207)
ステップS207では、制御部21は、通知部214として動作し、通信インタフェース24を制御することで、学習装置1の遠隔操作による動作が完了したことを周辺装置(例えば、ロボット装置5)に通知する。本ステップS207は、本発明の「完了通知ステップ」の一例である。当該通知が完了すると、制御部21は、本動作例に係る処理を終了する。
(Step S207)
In step S207, the control unit 21 operates as the notification unit 214 and controls the communication interface 24 to notify the peripheral device (for example, the robot device 5) that the operation of the learning device 1 by remote control is completed. .. This step S207 is an example of the "completion notification step" of the present invention. When the notification is completed, the control unit 21 ends the process related to this operation example.

なお、当該通知を受信した周辺装置は、ロボットアームシステム2において学習装置1により遠隔操作が完了したことを認識することができる。これにより、例えば、工場内を移動可能に構成されたロボット装置5が、ロボットアーム30の非動作中には近傍領域(特に、許可範囲309内)に近付いてもよいようにすることができる。すなわち、遠隔操作中であることに応じた移動制限を解除し、ロボット装置5が、ロボットアーム30の近傍を通過してもよいようにすることができる。 The peripheral device that has received the notification can recognize that the remote control has been completed by the learning device 1 in the robot arm system 2. Thereby, for example, the robot device 5 configured to be movable in the factory may approach a nearby area (particularly within the permission range 309) while the robot arm 30 is not operating. That is, it is possible to release the movement restriction according to the remote control so that the robot device 5 may pass in the vicinity of the robot arm 30.

[作用・効果]
以上のように、本実施形態に係る学習装置1は、上記ステップS101により、依頼者からの学習依頼として、機械学習させる対象となる学習対象装置及び当該学習対象装置に獲得させる能力の指定を受け付ける。また、学習装置1は、上記ステップS104及びS105により、学習対象装置(ロボットアームシステム2)を遠隔操作することで、学習依頼で指定された能力の機械学習に利用するための学習データ122を収集する。更に、学習装置1は、上記ステップS108により、収集した学習データ122を利用して、学習依頼で指定された能力を獲得させるようにニューラルネットワーク6の機械学習を実施する。これによって、学習依頼で指定された能力を学習対象装置に実施させるための学習済みのニューラルネットワーク6を構築することができる。また、遠隔地に配置された学習対象装置(ロボットアームシステム2)には、ステップS201及びS202により、ステップS101で指定された能力に関連する動作を実行させるに過ぎず、ステップS108の機械学習の処理は、学習装置1に実行させる。そのため、遠隔地に配置された学習対象装置のマシンパワーが制限されていても、当該学習対象装置に獲得させる能力の機械学習の処理を実施することができる。したがって、本実施形態によれば、遠隔地に配置された装置に新たな能力を適切に追加するための技術的な仕組みを提供することができる。
[Action / Effect]
As described above, the learning device 1 according to the present embodiment receives the designation of the learning target device to be machine-learned and the ability to be acquired by the learning target device as a learning request from the requester in step S101. .. Further, the learning device 1 collects learning data 122 to be used for machine learning of the ability specified in the learning request by remotely controlling the learning target device (robot arm system 2) in steps S104 and S105. To do. Further, the learning device 1 uses the learning data 122 collected in step S108 to perform machine learning of the neural network 6 so as to acquire the ability specified in the learning request. As a result, it is possible to construct a trained neural network 6 for causing the learning target device to perform the ability specified in the learning request. Further, the learning target device (robot arm system 2) arranged at a remote location merely executes the operation related to the ability specified in step S101 by steps S201 and S202, and the machine learning of step S108. The process is executed by the learning device 1. Therefore, even if the machine power of the learning target device located at a remote location is limited, it is possible to carry out the machine learning process of the ability to be acquired by the learning target device. Therefore, according to the present embodiment, it is possible to provide a technical mechanism for appropriately adding a new capability to a device located at a remote location.

また、本実施形態に係るロボットアームシステム2は、学習装置1からの遠隔操作の指令に従って動作している間に、上記ステップS203により、当該学習装置1の遠隔操作による動作中であることをディスプレイ32に表示する。本実施形態では、このディスプレイ32の表示を通じて、ロボットアームシステム2の周囲に存在する作業者に、ロボットアーム30が遠隔操作されていることを知らせることができ、これによって、ロボットアーム30の周囲の安全を確保することができる。したがって、本実施形態によれば、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。 Further, while the robot arm system 2 according to the present embodiment is operating according to a remote control command from the learning device 1, it is displayed by step S203 that the robot arm system 2 is being operated by remote control of the learning device 1. It is displayed on 32. In the present embodiment, through the display of the display 32, it is possible to notify the operator existing around the robot arm system 2 that the robot arm 30 is remotely controlled, whereby the surroundings of the robot arm 30 can be notified. Safety can be ensured. Therefore, according to the present embodiment, it is possible to provide a mechanism for ensuring the safety around the learning target device when the learning target device is remotely controlled.

なお、上記ステップS203において、制御部21は、学習装置1の遠隔操作による動作の内容をディスプレイ32に表示させてもよい。当該表示を採用することで、ロボットアームシステム2の周囲に存在する作業者に、遠隔操作による動作の内容を知らせることができ、これによって、ロボットアームシステム2の周囲の安全性を高めることができる。 In step S203, the control unit 21 may display the content of the operation of the learning device 1 by remote control on the display 32. By adopting this display, it is possible to notify the operator existing around the robot arm system 2 of the content of the operation by remote control, thereby enhancing the safety around the robot arm system 2. ..

また、上記ステップS203において、制御部21は、ステップS202により実行中の動作の次に実行する動作の内容をディスプレイ32に表示させてもよい。当該表示を採用することで、ロボットアームシステム2の周囲に存在する作業者に、ロボットアーム30の動作内容を予め知らせることができる。これにより、ロボットアームシステム2の周囲の安全性を高めることができる。 Further, in step S203, the control unit 21 may display the content of the operation to be executed next to the operation being executed in step S202 on the display 32. By adopting this display, it is possible to notify the operator existing around the robot arm system 2 in advance of the operation content of the robot arm 30. Thereby, the safety around the robot arm system 2 can be enhanced.

また、上記ステップS203において、制御部21は、ステップS202により実行中の動作が危険な動作である場合に、当該実行中の動作が危険な動作であることをディスプレイ32に表示させてもよい。当該表示を採用することで、ロボットアームシステム2の周囲に存在する作業者に危険が迫り得ることを明確に知らせることができ、これによって、ロボットアームシステム2の周囲の安全性を高めることができる。 Further, in step S203, when the operation being executed in step S202 is a dangerous operation, the control unit 21 may display on the display 32 that the operation being executed is a dangerous operation. By adopting this display, it is possible to clearly inform the workers existing around the robot arm system 2 that danger may be imminent, thereby enhancing the safety around the robot arm system 2. ..

§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
§4 Modifications Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. For example, the following changes can be made. In the following, the same reference numerals will be used for the same components as those in the above embodiment, and the same points as in the above embodiment will be omitted as appropriate. The following modifications can be combined as appropriate.

<4.1>
上記実施形態では、学習対象装置の一例として、ロボットアームシステム2を例示した。しかしながら、学習対象装置の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
<4.1>
In the above embodiment, the robot arm system 2 has been illustrated as an example of the learning target device. However, the type of the device to be learned does not have to be limited to such an example, and may be appropriately selected depending on the embodiment.

例えば、学習対象装置は、ロボット装置5のような、倉庫内で移動して、荷物の運搬等の作業を行う作業ロボットであってもよい。この場合、学習依頼では、倉庫内で荷物を効率的に運搬する手順を獲得させる能力として指定することができる。また、作業ロボットの移動可能な範囲が可動範囲となり、許可範囲を設定することで、作業ロボットの移動する範囲を制限することができる。 For example, the learning target device may be a work robot such as the robot device 5 that moves in the warehouse and performs work such as carrying luggage. In this case, the learning request can be specified as the ability to acquire the procedure for efficiently transporting the luggage in the warehouse. Further, the movable range of the work robot becomes the movable range, and the movable range of the work robot can be restricted by setting the permitted range.

例えば、学習対象装置は、自動運転可能な車両であってもよい。この場合、学習依頼ではテストコースなどを用いて、依頼者は、道路上で自動運転すること自体を車両に獲得させる能力として指定することができるし、自動運転の動作中の一部の機能として自動駐車すること等を車両に獲得させる能力として指定することもできる。この場合、可動範囲を設定するために、車外を撮影するカメラ及び車外の物体を検出するレーザ等のいずれか又は両方の組合せを用いることができる。なお、遠隔操作に依る動作中であることを表示するディスプレイ等の表示部は、車両の外部に取り付けられていてもよいし、テストコースの所定の場所に配置されていてもよい。 For example, the learning target device may be a vehicle capable of autonomous driving. In this case, in the learning request, using a test course or the like, the client can specify the ability to let the vehicle acquire automatic driving on the road itself, and as a part of the function during the automatic driving operation. It can also be specified as the ability to make the vehicle acquire automatic parking and the like. In this case, in order to set the movable range, a combination of either or both of a camera for photographing the outside of the vehicle and a laser for detecting an object outside the vehicle can be used. A display unit such as a display indicating that the vehicle is being operated by remote control may be attached to the outside of the vehicle or may be arranged at a predetermined location on the test course.

なお、学習対象装置には、一台の装置ではなく、複数台の装置が指定されてもよい。例えば、上記ロボットアームシステム2は、ロボットアーム30を複数備えていてもよい。この場合、学習依頼では、複数台の装置が協働して行う作業を獲得させる能力として指定することができる。 In addition, a plurality of devices may be designated as the learning target device instead of one device. For example, the robot arm system 2 may include a plurality of robot arms 30. In this case, in the learning request, it can be specified as the ability to acquire the work performed by a plurality of devices in collaboration.

<4.2>
また、上記実施形態では、図5に示されるとおり、ニューラルネットワーク6として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、ニューラルネットワーク6の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、入力データとして画像を用いる場合、ニューラルネットワーク6には、畳み込み層及びプーリング層を備える畳み込みニューラルネットワークを用いてもよい。また、例えば、入力データとして時系列データを用いる場合、ニューラルネットワーク6には、中間層から入力層等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークが用いられてもよい。なお、ニューラルネットワーク6の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
<4.2>
Further, in the above embodiment, as shown in FIG. 5, a general forward-propagation neural network having a multi-layer structure is used as the neural network 6. However, the type of the neural network 6 does not have to be limited to such an example, and may be appropriately selected depending on the embodiment. For example, when an image is used as input data, a convolutional neural network including a convolutional layer and a pooling layer may be used as the neural network 6. Further, for example, when time-series data is used as input data, a recursive neural network having a recursive connection from the output side to the input side, such as an intermediate layer to an input layer, may be used for the neural network 6. .. The number of layers of the neural network 6, the number of neurons in each layer, the connection relationship between neurons, and the transfer function of each neuron may be appropriately determined according to the embodiment.

<4.3>
また、上記実施形態では、学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、学習器には、サポートベクターマシン、自己組織化マップ、強化学習により学習を行う学習器等が用いられてもよい。なお、強化学習の手法を用いて機械学習を行う場合には、上記ステップS104の遠隔操作を実施している間に、ステップS108の機械学習の処理を実施してもよい。
<4.3>
Further, in the above embodiment, the learner is configured by a neural network. However, the type of the learner does not have to be limited to the neural network, and may be appropriately selected depending on the embodiment. For example, as the learning device, a support vector machine, a self-organizing map, a learning device that learns by reinforcement learning, or the like may be used. When machine learning is performed using the reinforcement learning method, the machine learning process in step S108 may be performed while the remote control in step S104 is being performed.

<4.4>
また、上記実施形態では、可動範囲308の状況を監視する監視装置の一例として、カメラ31が例示されている。しかしながら、監視装置の種類は、撮影装置に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、監視装置は、1又は複数の赤外線センサで構成された、学習対象装置の動作位置(上記実施形態では、ロボットアーム30の位置)を検出する位置検出システムであってもよい。この場合、学習装置1は、上記ステップS103において、位置検出システムの検出結果を示す情報を状況情報として取得することができる。
<4.4>
Further, in the above embodiment, the camera 31 is exemplified as an example of the monitoring device for monitoring the status of the movable range 308. However, the type of the monitoring device does not have to be limited to the photographing device, and may be appropriately selected according to the embodiment. For example, the monitoring device may be a position detection system that detects the operating position of the learning target device (the position of the robot arm 30 in the above embodiment), which is composed of one or a plurality of infrared sensors. In this case, in step S103, the learning device 1 can acquire information indicating the detection result of the position detection system as status information.

また、上記実施形態では、カメラ31は、RC20に接続されている。そのため、学習装置1は、ステップS101で指定された学習対象装置の遠隔操作に利用する情報(例えば、IPアドレス)を利用して、RC20を介してカメラ31から撮影画像を取得することができる。しかしながら、学習装置1が状況情報を取得する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、カメラ31がネットワーク10に接続可能である場合、学習装置1は、上記ステップS101において、学習対象装置と同様に、カメラ31へのアクセスに利用する情報(例えば、IPアドレス)を取得してもよい。 Further, in the above embodiment, the camera 31 is connected to the RC20. Therefore, the learning device 1 can acquire a captured image from the camera 31 via the RC20 by using the information (for example, IP address) used for remote control of the learning target device specified in step S101. However, the method for the learning device 1 to acquire the situation information is not limited to such an example, and may be appropriately selected depending on the embodiment. For example, when the camera 31 can be connected to the network 10, the learning device 1 acquires information (for example, an IP address) used for accessing the camera 31 in the step S101, similarly to the learning target device. May be good.

なお、ロボットアームシステム2の可動範囲308の監視が不要である場合には、上記学習装置1の処理手順において、上記ステップS102及びS103は省略されてもよい。加えて、学習装置1のソフトウェア構成において、許可範囲設定部111及び状況取得部112は省略されてもよい。また、許可範囲309内の監視が不要な場合、上記学習装置1の処理手順において、遠隔操作を一時停止してから再開するまでの一連の処理は省略されてもよい。 When it is not necessary to monitor the movable range 308 of the robot arm system 2, steps S102 and S103 may be omitted in the processing procedure of the learning device 1. In addition, in the software configuration of the learning device 1, the permission range setting unit 111 and the status acquisition unit 112 may be omitted. Further, when monitoring within the permission range 309 is unnecessary, a series of processes from suspending the remote operation to resuming the remote operation may be omitted in the processing procedure of the learning device 1.

<4.5>
また、上記実施形態に係る学習装置1は、上記ステップS109により、能力付与データ123を生成する。そして、学習装置1は、上記ステップS110により、学習対象装置であるロボットアームシステム2に能力付与データ123を配信する。しかしながら、能力付与データ123の生成方法及び配信方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
<4.5>
Further, the learning device 1 according to the above embodiment generates the ability granting data 123 in the above step S109. Then, the learning device 1 delivers the ability-imparting data 123 to the robot arm system 2, which is the learning target device, in step S110. However, the method of generating and distributing the ability-imparting data 123 does not have to be limited to such an example, and may be appropriately selected depending on the embodiment.

例えば、能力付与データ123は、他の情報処理装置又はオペレータにより生成されてよい。この場合、上記学習装置1の処理手順において、ステップS109は省略されてもよい。加えて、学習装置1のソフトウェア構成において、能力付与データ生成部116は省略されてもよい。 For example, the capacity-imparting data 123 may be generated by another information processing device or operator. In this case, step S109 may be omitted in the processing procedure of the learning device 1. In addition, in the software configuration of the learning device 1, the ability-imparting data generation unit 116 may be omitted.

また、例えば、能力付与データ123は、CDドライブ、DVDドライブ、フラッシュメモリ等の記憶媒体に格納されてもよい。そして、この能力付与データ123を格納した記憶媒体を依頼者に配布するようにしてもよい。この場合、上記学習装置1の処理手順において、ステップS110は省略されてもよい。加えて、学習装置1のソフトウェア構成において、配信部117は省略されてもよい。 Further, for example, the capacity imparting data 123 may be stored in a storage medium such as a CD drive, a DVD drive, or a flash memory. Then, the storage medium in which the ability-imparting data 123 is stored may be distributed to the requester. In this case, step S110 may be omitted in the processing procedure of the learning device 1. In addition, the distribution unit 117 may be omitted in the software configuration of the learning device 1.

なお、このように記憶媒体により能力付与データ123を配布する場合、依頼者は、受け取った記憶媒体から能力付与データ123を適宜読み出して、ロボットアームシステム2のRC20に読み出した能力付与データ123をインストールする。これによって、能力付与データ123をロボットアームシステム2に適用することができる。 When the ability-giving data 123 is distributed by the storage medium in this way, the client appropriately reads the ability-giving data 123 from the received storage medium and installs the read-out ability-giving data 123 in the RC20 of the robot arm system 2. To do. Thereby, the ability granting data 123 can be applied to the robot arm system 2.

<4.6>
また、上記実施形態では、学習装置1は、1台のコンピュータにより構成されている。しかしながら、学習装置1は、複数台のコンピュータにより構成されてもよい。この場合、学習装置1の一部のソフトウェアモジュールを各コンピュータに実装してもよい。例えば、学習データ収集部114のみを1台のコンピュータに実装してもよい。そして、機械学習の実施に際して、学習データ収集部114を実装したコンピュータを依頼者に貸し出してもよい。これにより、ステップS104における学習データ122の収集処理のリアルタイム性を高めることができる。
<4.6>
Further, in the above embodiment, the learning device 1 is composed of one computer. However, the learning device 1 may be composed of a plurality of computers. In this case, some software modules of the learning device 1 may be mounted on each computer. For example, only the learning data collection unit 114 may be mounted on one computer. Then, when carrying out machine learning, a computer equipped with the learning data collection unit 114 may be lent to the client. Thereby, the real-time property of the collection process of the learning data 122 in step S104 can be enhanced.

<4.7>
また、上記ステップS101では、制御部11は、学習依頼として、学習対象装置(ロボットアームシステム2)において遠隔操作を許可するために設定されたパスワードの指定を更に受け付けてもよい。この場合、上記ステップS104では、制御部11は、指定されたパスワードによってロボットアームシステム2において認証を受けた後に、当該ロボットアームシステム2を遠隔操作するようにしてもよい。これにより、ロボットアームシステム2を遠隔操作する際のセキュリティを高めることができる。
<4.7>
Further, in step S101, the control unit 11 may further accept the designation of the password set for permitting remote control in the learning target device (robot arm system 2) as a learning request. In this case, in step S104, the control unit 11 may remotely control the robot arm system 2 after being authenticated by the robot arm system 2 by the designated password. This makes it possible to enhance security when remotely controlling the robot arm system 2.

<4.8>
また、上記ステップS101では、制御部11は、学習依頼として、学習対象装置(ロボットアームシステム2)において遠隔操作を許可する時間帯の指定を更に受け付けてもよい。この場合、制御部11は、指定された時間帯にのみ上記ステップS104(ロボットアームシステム2の遠隔操作)を実行するようにしてもよい。これにより、例えば、ロボットアームシステム2を利用しない夜間又は早朝の時間帯に、当該ロボットアームシステム2の機械学習に利用する学習データ122を収集するようにすることができる。そのため、ロボットアームシステム2の利用効率を高めることができる。
<4.8>
Further, in step S101, the control unit 11 may further accept the designation of the time zone in which the remote control is permitted in the learning target device (robot arm system 2) as a learning request. In this case, the control unit 11 may execute the step S104 (remote control of the robot arm system 2) only in the designated time zone. Thereby, for example, the learning data 122 used for machine learning of the robot arm system 2 can be collected at nighttime or early morning when the robot arm system 2 is not used. Therefore, the utilization efficiency of the robot arm system 2 can be improved.

<4.9>
また、上記ステップS101では、制御部11は、学習依頼として、学習対象装置(ロボットアームシステム2)において遠隔操作を許可する学習期間の指定を更に受け付けてもよい。この場合、制御部11は、指定された学習期間内に上記ステップS104(ロボットアームシステム2の遠隔操作)を実行し、指定された学習期間の経過後に、ロボットアームシステム2の遠隔操作に利用した情報(例えば、IPアドレス)を削除するようにしてもよい。
<4.9>
Further, in step S101, the control unit 11 may further accept the designation of the learning period for permitting remote control in the learning target device (robot arm system 2) as a learning request. In this case, the control unit 11 executes the above step S104 (remote control of the robot arm system 2) within the designated learning period, and uses it for the remote control of the robot arm system 2 after the lapse of the designated learning period. Information (eg, IP address) may be deleted.

<4.10>
また、上記実施形態では、学習装置1は、上記ステップS101により学習依頼を受け付けた後、ステップS108において、受け付けた学習依頼で指定された能力を機械学習により獲得させたニューラルネットワーク6を構築するまで、一連の処理を実行する。しかしながら、学習装置1による学習依頼の処理態様は、このような例に限定されなくてもよい。例えば、学習装置1は、学習依頼の破棄を受け付け可能に構成されてもよい。
<4.10>
Further, in the above embodiment, after receiving the learning request in step S101, the learning device 1 builds a neural network 6 in which the ability specified by the received learning request is acquired by machine learning in step S108. , Execute a series of processing. However, the processing mode of the learning request by the learning device 1 does not have to be limited to such an example. For example, the learning device 1 may be configured to be able to accept the discarding of the learning request.

図9は、本変形例に係る学習装置1Aのソフトウェア構成の一例を模式的に例示する。図9に示されるとおり、本変形例に係る学習装置1Aは、制御部11により学習プログラム121を実行することで、学習依頼の破棄を受け付ける破棄受付部118、及び学習依頼を受け付けた場合に、学習依頼の破棄を受け付けるまでに収集した学習データ及び学習対象装置の遠隔操作に利用した情報を含む学習依頼に関する情報を削除するデータ削除部119を更に備えるコンピュータとして構成される。なお、学習装置1Aは、この点を除き、上記学習装置1と同様に構成される。 FIG. 9 schematically illustrates an example of the software configuration of the learning device 1A according to this modification. As shown in FIG. 9, the learning device 1A according to this modified example has a discard reception unit 118 that accepts the discard of the learning request by executing the learning program 121 by the control unit 11, and when the learning request is received, the learning device 1A receives the learning request. It is configured as a computer further provided with a data deletion unit 119 that deletes information related to the learning request, including learning data collected before accepting the destruction of the learning request and information used for remote operation of the learning target device. The learning device 1A is configured in the same manner as the learning device 1 except for this point.

次に、図10を用いて、本変形例に係る学習装置1Aの処理手順の一例について説明する。図10は、上記ステップS102〜S108までの処理を実行している間における学習依頼の破棄受付に係る処理手順の一例を例示する。学習装置1Aの制御部11は、上記ステップS101により学習依頼を受け付けた後、ステップS102の処理を開始すると共に、次のステップS301の処理を開始する。 Next, an example of the processing procedure of the learning device 1A according to the present modification will be described with reference to FIG. FIG. 10 illustrates an example of the processing procedure related to the acceptance of discarding the learning request while the processes of steps S102 to S108 are being executed. After receiving the learning request in step S101, the control unit 11 of the learning device 1A starts the process of step S102 and starts the process of the next step S301.

(ステップS301)
ステップS301では、制御部11は、破棄受付部118として動作し、学習依頼の破棄を受け付ける。学習依頼の破棄を所望する依頼者は、ユーザ端末4を操作して、ステップS101で行った学習依頼の破棄の要求を学習装置1に対して行う。上記ステップS108の処理を開始するまでに学習依頼の破棄を受け付けた場合には、制御部11は、次のステップS302に処理を進める。他方、上記ステップS108の処理を開始するまでに学習依頼の破棄を受け付けなかった場合には、制御部11は、次のステップS302の処理を省略し、学習依頼の破棄に係る処理を終了する。
(Step S301)
In step S301, the control unit 11 operates as the discard reception unit 118 and accepts the discard of the learning request. The requester who desires to discard the learning request operates the user terminal 4 to request the learning device 1 to discard the learning request made in step S101. If the discard of the learning request is received before the process of step S108 is started, the control unit 11 proceeds to the next step S302. On the other hand, if the discarding of the learning request is not accepted before the process of the step S108 is started, the control unit 11 omits the process of the next step S302 and ends the process related to the discarding of the learning request.

(ステップS302)
ステップS302では、制御部11は、データ削除部119として動作し、学習依頼の破棄を受け付けるまでにステップS105により収集した学習データ122及びロボットアームシステム2の遠隔操作に利用した情報(例えば、IPアドレス)を含む学習依頼の関する情報を削除する。学習依頼に関する情報には、ロボットアームシステム2の遠隔操作に利用した情報の他、例えば、ステップS101で指定された学習依頼の内容を示す情報が含まれる。学習依頼に関連する情報の削除が完了すると、制御部11は、当該学習依頼の破棄に係る処理を終了する。本変形例によれば、不要になった機械学習の依頼を破棄することができ、これによって、学習装置のリソースの効率化を図ることができる。
(Step S302)
In step S302, the control unit 11 operates as the data deletion unit 119, and the learning data 122 collected in step S105 and the information used for remote control of the robot arm system 2 (for example, the IP address) before accepting the discard of the learning request. ), And delete the information related to the learning request. The information regarding the learning request includes, for example, information indicating the content of the learning request specified in step S101, in addition to the information used for the remote control of the robot arm system 2. When the deletion of the information related to the learning request is completed, the control unit 11 ends the process related to the destruction of the learning request. According to this modification, it is possible to discard the machine learning request that is no longer needed, and thereby improve the efficiency of the resources of the learning device.

<4.11>
また、上記実施形態では、制御部21は、ステップS206により、遠隔操作が完了したことをディスプレイ32に表示している。しかしながら、上記ロボットアームシステム2の処理手順において、当該ステップS206の処理は省略されてもよい。
<4.11>
Further, in the above embodiment, the control unit 21 displays on the display 32 that the remote control has been completed by step S206. However, in the processing procedure of the robot arm system 2, the processing of the step S206 may be omitted.

また、上記実施形態では、制御部21は、ステップS204及びS207により、ロボットアームシステム2のステータスを周辺装置に通知している。しかしながら、ロボットアームシステム2の処理手順において、当該ステップS204及びS207のうち少なくとも一方は省略されてもよい。ステップS204及びS207の両方を省略する場合には、ロボットアームシステム2のソフトウェア構成において、通知部214は省略されてもよい。 Further, in the above embodiment, the control unit 21 notifies the peripheral device of the status of the robot arm system 2 by steps S204 and S207. However, in the processing procedure of the robot arm system 2, at least one of the steps S204 and S207 may be omitted. When both steps S204 and S207 are omitted, the notification unit 214 may be omitted in the software configuration of the robot arm system 2.

なお、ステップS203とステップS204とは処理順序が入れ替わってもよい。同様に、ステップS206とステップS207とは処理順序が入れ替わってもよい。 The processing order of step S203 and step S204 may be interchanged. Similarly, the processing order of step S206 and step S207 may be interchanged.

<4.12>
また、上記実施形態では、ロボットアームシステム2のステータスを表示する表示部としてディスプレイ32を利用している。しかしながら、表示部の種類は、ディスプレイに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、図11に示されるとおり、表示部には、表示灯が用いられてもよい。
<4.12>
Further, in the above embodiment, the display 32 is used as a display unit for displaying the status of the robot arm system 2. However, the type of the display unit does not have to be limited to the display, and may be appropriately selected according to the embodiment. For example, as shown in FIG. 11, an indicator lamp may be used for the display unit.

図11は、本変形例に係るロボットアームシステム2Bの構成を模式的に例示する。ロボットアームシステム2Bでは、RC20は、外部インタフェース23を介して、表示灯33に接続している。表示灯33は、例えば、LED(light emitting diode)ランプ、ネオンランプ等であってよい。 FIG. 11 schematically illustrates the configuration of the robot arm system 2B according to this modification. In the robot arm system 2B, the RC 20 is connected to the indicator light 33 via the external interface 23. The indicator lamp 33 may be, for example, an LED (light emitting diode) lamp, a neon lamp, or the like.

この場合、上記ステップS203では、制御部21は、第1の表示態様で表示灯33を発光させることで、学習装置1の遠隔操作による動作中であることを表示灯33に表示させてもよい。そして、上記ステップS206では、第1の表示態様とは異なる第2の表示態様で表示灯33を発光させることで、学習装置1の遠隔操作による動作が完了したことを表示灯33に表示させてもよい。 In this case, in step S203, the control unit 21 may cause the indicator light 33 to indicate that the learning device 1 is being operated by remote control by causing the indicator light 33 to emit light in the first display mode. .. Then, in step S206, the indicator light 33 is caused to emit light in a second display mode different from the first display mode, so that the indicator light 33 indicates that the operation by remote control of the learning device 1 is completed. May be good.

なお、表示態様は、色、点滅速度等の視る者の視覚に影響を与える要素により決定される。例えば、上記ステップS203では、制御部21は、第1の表示形態として表示灯33を赤色に発光させてもよい。そして、上記ステップS206では、制御部21は、第2の表示形態として表示灯33を青色に発光させてもよい。これにより、学習対象装置のステータスを表示する表示部を安価に構成することができる。 The display mode is determined by factors that affect the viewer's vision, such as color and blinking speed. For example, in step S203, the control unit 21 may cause the indicator lamp 33 to emit red light as the first display mode. Then, in step S206, the control unit 21 may cause the indicator lamp 33 to emit blue light as a second display mode. As a result, it is possible to inexpensively configure a display unit that displays the status of the learning target device.

<4.13>
また、上記実施形態では、制御部11は、ステップS105において、センサデータ及び目標データと制御データとを組にすることで、学習データ122を生成している。これらのうち、センサデータは、学習対象装置の状態を示す状態データの一例である。しかしながら、状態データの種類は、センサデータに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。また、学習対象装置の動作を制御する際に、状態データが不要である場合、当該状態データは、学習データから省略されてもよい。上記実施形態では、制御部11は、ステップS105において、目標データと制御データとを組にすることで、学習データ122を生成してもよい。
<4.13>
Further, in the above embodiment, the control unit 11 generates the learning data 122 by combining the sensor data, the target data, and the control data in step S105. Of these, the sensor data is an example of state data indicating the state of the learning target device. However, the type of state data does not have to be limited to sensor data, and may be appropriately selected depending on the embodiment. Further, when the state data is not required when controlling the operation of the learning target device, the state data may be omitted from the learning data. In the above embodiment, the control unit 11 may generate the learning data 122 by combining the target data and the control data in step S105.

1・1A…学習装置、
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
110…学習依頼受付部、111…許可範囲設定部、
112…状況取得部、113…遠隔操作部、
114…学習データ収集部、115…学習処理部、
116…能力付与データ生成部、117…配信部、
118…破棄受付部、119…データ削除部、
121…学習プログラム、122…学習データ、
123…能力付与データ、
2…ロボットアームシステム、
20…RC、
21…制御部、22…記憶部、23…外部インタフェース、
24…通信インタフェース、
211…遠隔操作受付部、212…動作処理部、
213…表示制御部、214…通知部、
221…制御プログラム、
30…ロボットアーム、
301…基台部、302…関節部、
303…リンク部、304…エンドエフェクタ、
308…可動範囲、309…許可範囲、
31…カメラ、32…ディスプレイ、
4…ユーザ端末、5…ロボット装置、
6…ニューラルネットワーク、
61…入力層、62…中間層(隠れ層)、63…出力層
1.1A ... Learning device,
11 ... Control unit, 12 ... Storage unit, 13 ... Communication interface,
14 ... input device, 15 ... output device, 16 ... drive,
110 ... Learning request reception department, 111 ... Permit range setting department,
112 ... Situation acquisition unit, 113 ... Remote control unit,
114 ... Learning data collection unit, 115 ... Learning processing unit,
116 ... Ability granting data generation unit, 117 ... Distribution unit,
118 ... Discard reception department, 119 ... Data deletion department,
121 ... learning program, 122 ... learning data,
123 ... Ability grant data,
2 ... Robot arm system,
20 ... RC,
21 ... Control unit, 22 ... Storage unit, 23 ... External interface,
24 ... Communication interface,
211 ... Remote control reception unit, 212 ... Operation processing unit,
213 ... Display control unit, 214 ... Notification unit,
221 ... Control program,
30 ... Robot arm,
301 ... base, 302 ... joints,
303 ... Link part, 304 ... End effector,
308 ... movable range, 309 ... permitted range,
31 ... camera, 32 ... display,
4 ... user terminal, 5 ... robot device,
6 ... Neural network,
61 ... Input layer, 62 ... Intermediate layer (hidden layer), 63 ... Output layer

Claims (7)

依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う学習装置に対して遠隔地に配置され、当該学習装置の機械学習により当該指定された能力を獲得させる対象となる学習対象装置であって、
表示部と、
制御部と、
前記学習対象装置の周囲に配置された周辺装置と通信を行うように構成された通信部と、
を備え、
前記制御部は、
指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、
受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記周辺装置に対して、前記学習装置の前記遠隔操作による動作中であることを知らせるための通知を前記通信部により送信する通知ステップであって、当該通知は、前記学習対象装置の近傍への接近を制限するように指示する移動制限のコマンドを含む、通知ステップと、
前記学習装置からの前記遠隔操作が完了した後、前記周辺装置に対して、前記遠隔操作による動作が完了したことを知らせるための完了通知を前記通信部により送信する完了通知ステップであって、当該完了通知は、前記移動制限を解除する許可コマンドを含む、完了通知ステップと、
を実行するように構成される、
学習対象装置。
A target that is placed in a remote location with respect to a learning device that performs machine learning to acquire the specified ability in response to a learning request from the client, and that the specified ability is acquired by machine learning of the learning device. It is a learning target device
Display and
Control unit and
A communication unit configured to communicate with peripheral devices arranged around the learning target device, and
With
The control unit
A reception step that receives a remote control command from the learning device instructing the execution of an operation related to the specified ability, and a reception step.
An execution step that executes an operation related to the specified ability according to the received remote control command, and
A display step for displaying on the display unit that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command.
A notification step in which the communication unit transmits a notification to the peripheral device to notify that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command. The notification is a notification step comprising a movement restriction command instructing to restrict access to the vicinity of the learning target device.
A completion notification step in which the communication unit transmits a completion notification for notifying the peripheral device that the operation by the remote operation has been completed after the remote operation from the learning device is completed. The completion notification includes a completion notification step including a permission command for removing the movement restriction, and a completion notification.
Is configured to run,
Learning target device.
前記制御部は、前記学習装置からの前記遠隔操作が完了した後、前記遠隔操作による動作が完了したことを前記表示部に表示させる完了表示ステップを更に実行するように構成される、
請求項1に記載の学習対象装置。
The control unit is configured to further execute a completion display step of displaying on the display unit that the operation by the remote control has been completed after the remote control from the learning device is completed.
The learning target device according to claim 1.
前記表示部は、ディスプレイであり、
前記制御部は、前記表示ステップにおいて、前記学習装置の前記遠隔操作による動作の内容を前記ディスプレイに表示させる、
請求項1又は2に記載の学習対象装置。
The display unit is a display.
In the display step, the control unit causes the display to display the content of the operation of the learning device by the remote control.
The device to be learned according to claim 1 or 2.
前記制御部は、
前記受付ステップでは、複数の動作の実行を指示する前記指令を受け付け、
前記表示ステップでは、前記実行ステップにより実行中の動作の次に実行する動作の内容を前記ディスプレイに表示させる、
請求項に記載の学習対象装置。
The control unit
In the reception step, the command for instructing the execution of a plurality of operations is received, and the reception step receives the command.
In the display step, the content of the operation to be executed next to the operation being executed by the execution step is displayed on the display.
The learning target device according to claim 3.
前記制御部は、実行中の動作が危険な動作である場合に、前記表示ステップにおいて、実行中の動作が危険な動作であることを前記ディスプレイに表示させる、
請求項3又は4に記載の学習対象装置。
When the operation being executed is a dangerous operation, the control unit causes the display to indicate that the operation being executed is a dangerous operation in the display step.
The device to be learned according to claim 3 or 4.
前記表示部は、表示灯であり、
記制御部は、
前記表示ステップでは、第1の表示態様で前記表示灯を発光させることで、前記学習装置の前記遠隔操作による動作中であること前記表示灯に表示させ、
前記完了表示ステップでは、前記第1の表示態様とは異なる第2の表示態様で前記表示灯を発光させることで、前記遠隔操作による動作が完了したことを前記表示灯に表示させる、
請求項に記載の学習対象装置。
The display unit is an indicator light.
Before Symbol control section is,
In the display step, by causing the indicator light to emit light in the first display mode, the indicator light indicates that the learning device is being operated by the remote control.
In the completion display step, by causing the indicator light to emit light in a second display mode different from the first display mode, the indicator light indicates that the operation by the remote control has been completed.
The learning target device according to claim 2.
依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う学習装置に対して遠隔地に配置され、当該学習装置の機械学習により当該指定された能力を獲得させる対象となる学習対象装置であって、表示部及び前記学習対象装置の周囲に配置された周辺装置と通信を行うように構成された通信部を備える学習対象装置が、
指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、
受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記周辺装置に対して、前記学習装置の前記遠隔操作による動作中であることを知らせるための通知を前記通信部により送信する通知ステップであって、当該通知は、前記学習対象装置の近傍への接近を制限するように指示する移動制限のコマンドを含む、通知ステップと、
前記学習装置からの前記遠隔操作が完了した後、前記周辺装置に対して、前記遠隔操作による動作が完了したことを知らせるための完了通知を前記通信部により送信する完了通知ステップであって、当該完了通知は、前記移動制限を解除する許可コマンドを含む、完了通知ステップと、
を実行する、
動作方法。
A target that is placed in a remote location with respect to a learning device that performs machine learning to acquire the specified ability in response to a learning request from the client, and that the specified ability is acquired by machine learning of the learning device. A learning target device including a display unit and a communication unit configured to communicate with peripheral devices arranged around the learning target device.
A reception step that receives a remote control command from the learning device instructing the execution of an operation related to the specified ability, and a reception step.
An execution step that executes an operation related to the specified ability according to the received remote control command, and
A display step for displaying on the display unit that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command.
A notification step in which the communication unit transmits a notification to the peripheral device to notify that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command. The notification is a notification step comprising a movement restriction command instructing to restrict access to the vicinity of the learning target device.
A completion notification step in which the communication unit transmits a completion notification for notifying the peripheral device that the operation by the remote operation has been completed after the remote operation from the learning device is completed. The completion notification includes a completion notification step including a permission command for removing the movement restriction, and a completion notification.
To execute,
How it works.
JP2018023614A 2017-03-14 2018-02-14 Learning target device and operation method Active JP6897593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/008141 WO2018168537A1 (en) 2017-03-14 2018-03-02 Learning target apparatus and operating method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017048335 2017-03-14
JP2017048335 2017-03-14

Publications (2)

Publication Number Publication Date
JP2018149670A JP2018149670A (en) 2018-09-27
JP6897593B2 true JP6897593B2 (en) 2021-06-30

Family

ID=63680874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018023614A Active JP6897593B2 (en) 2017-03-14 2018-02-14 Learning target device and operation method

Country Status (1)

Country Link
JP (1) JP6897593B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904327B2 (en) * 2018-11-30 2021-07-14 オムロン株式会社 Control device, control method, and control program
JP7402450B2 (en) 2019-10-09 2023-12-21 Telexistence株式会社 Robot control device, robot control method, and robot control system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08166809A (en) * 1994-10-14 1996-06-25 Kobe Steel Ltd Method for evading interference of plural robots and method for determining order and partial charge of operation
WO2007005555A2 (en) * 2005-06-30 2007-01-11 Intuitive Surgical Indicator for tool state communication in multi-arm telesurgery
JP2011204145A (en) * 2010-03-26 2011-10-13 Sony Corp Moving device, moving method and program
WO2013074969A1 (en) * 2011-11-16 2013-05-23 University Of South Florida Systems and method for communicating robot intentions to human beings
US9630317B2 (en) * 2014-04-03 2017-04-25 Brain Corporation Learning apparatus and methods for control of robotic devices via spoofing
US10022867B2 (en) * 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action

Also Published As

Publication number Publication date
JP2018149670A (en) 2018-09-27

Similar Documents

Publication Publication Date Title
JP6900918B2 (en) Learning device and learning method
US9749596B2 (en) Systems and methods for automated cloud-based analytics for security and/or surveillance
KR102044665B1 (en) Methods and systems for generating instructions for a robotic system to carry out a task
US9399290B2 (en) Enhancing sensor data by coordinating and/or correlating data attributes
US20220171907A1 (en) Creation of digital twin of the interaction among parts of the physical system
JP6897593B2 (en) Learning target device and operation method
CN110223413A (en) Intelligent polling method, device, computer storage medium and electronic equipment
Singh et al. Wi-Fi surveillance bot with real time audio & video streaming through Android mobile
KR102093477B1 (en) Method and apparatus for managing safety in dangerous zone based on different kind camera
Fawzi et al. Embedded real-time video surveillance system based on multi-sensor and visual tracking
US11257355B2 (en) System and method for preventing false alarms due to display images
Singh et al. IOT-based Wi-Fi surveillance robot with real-time audio and video streaming
US20220410391A1 (en) Sensor-based construction of complex scenes for autonomous machines
William et al. Software Reliability Analysis with Various Metrics using Ensembling Machine Learning Approach
Tharmalingam et al. A surveillance mobile robot based on low-cost embedded computers
KR102085168B1 (en) Method and apparatus for managing safety in dangerous zone based on motion tracking
WO2018168537A1 (en) Learning target apparatus and operating method
Rajawat et al. Iot based theft detection using raspberry pi
CN112975989B (en) Robot safe operation method, equipment and storage medium
KR102138006B1 (en) Method for controlling a security robot, apparatus for supporting the same
WO2018168536A1 (en) Learning apparatus and learning method
JP2009065561A (en) Monitoring camera apparatus, method of controlling the same, and program
JP2022549260A (en) Robot remote control method
WO2022124477A1 (en) Electronic device and control method therefor
CN114666476B (en) Intelligent video recording method, device, equipment and storage medium for robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250