JP6897593B2 - Learning target device and operation method - Google Patents
Learning target device and operation method Download PDFInfo
- Publication number
- JP6897593B2 JP6897593B2 JP2018023614A JP2018023614A JP6897593B2 JP 6897593 B2 JP6897593 B2 JP 6897593B2 JP 2018023614 A JP2018023614 A JP 2018023614A JP 2018023614 A JP2018023614 A JP 2018023614A JP 6897593 B2 JP6897593 B2 JP 6897593B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- display
- remote control
- control unit
- robot arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 63
- 238000010801 machine learning Methods 0.000 claims description 67
- 238000004891 communication Methods 0.000 claims description 31
- 230000002093 peripheral effect Effects 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 46
- 238000013528 artificial neural network Methods 0.000 description 44
- 230000008569 process Effects 0.000 description 30
- 210000002569 neuron Anatomy 0.000 description 28
- 238000003860 storage Methods 0.000 description 28
- 230000010365 information processing Effects 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 10
- 239000012636 effector Substances 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012806 monitoring device Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013480 data collection Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 229910052754 neon Inorganic materials 0.000 description 1
- GKAOGPIIYCISHV-UHFFFAOYSA-N neon atom Chemical compound [Ne] GKAOGPIIYCISHV-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005476 soldering Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、学習対象装置及び動作方法に関する。 The present invention relates to a learning target device and an operation method.
コンピュータのCPU(Central Processing Unit)、記憶装置、及びネットワークの高度化により、システムで扱うことのできるデータ量が爆発的に増大している。このような膨大な量のデータは、ビッグデータと呼ばれている。更に、それぞれデータソース及び操作対象となる多数の装置が、ネットワークを介して互いに接続されており、これらを統合する仕組みとして、様々なIoT(Internet of Things)システムが開発されている。ビッグデータをIoTシステムで取り扱うことにより、多様な情報処理を実施することができる。しかしながら、新たな情報処理を実施するためには、アプリケーションに新たな能力を付与することになる。近年、その開発量が大幅に増大しており、これによって、アプリケーション開発のリソースが足りない状況になってきている。深層学習(Deep Learning)をはじめとする新たなAI(Artificial Intelligence)技術によって、アプリケーションに新たな能力を獲得させることができれば、このようなリソースの足りない事態を解決することができる。 Due to the sophistication of computer CPUs (Central Processing Units), storage devices, and networks, the amount of data that can be handled by a system is explosively increasing. Such a huge amount of data is called big data. Further, a large number of devices to be operated and a data source are connected to each other via a network, and various IoT (Internet of Things) systems have been developed as a mechanism for integrating these. By handling big data in the IoT system, various information processing can be performed. However, in order to carry out new information processing, new capabilities will be given to the application. In recent years, the amount of development has increased significantly, which has led to a shortage of application development resources. If new AI (Artificial Intelligence) technologies such as deep learning can be used to acquire new capabilities in applications, such a situation of lack of resources can be solved.
以前から、ニューラルネットワークを含む人工知能に関する研究は幅広く行われてきた。例えば、画像に写る対象物の認識技術は、多くの改良が行われ、認識率が徐々に向上してきている。特に、深層学習の導入によって、対象物の認識率がここ数年で急速に向上している。深層学習の技術は、画像の認識だけではなく、音声認識、文章の要約、自動翻訳、自動運転、故障予測、センサデータの分析等の幅広い分野で利用されている。この深層学習等の機械学習を利用すれば、機械に新たな能力を獲得させることができる。 For some time, research on artificial intelligence, including neural networks, has been extensively conducted. For example, the technology for recognizing an object reflected in an image has undergone many improvements, and the recognition rate has been gradually improved. In particular, with the introduction of deep learning, the recognition rate of objects has increased rapidly in the last few years. Deep learning technology is used not only in image recognition but also in a wide range of fields such as voice recognition, sentence summarization, automatic translation, automatic driving, failure prediction, and sensor data analysis. By using machine learning such as deep learning, machines can acquire new abilities.
例えば、新たな能力を装置に実装する方法に関連する技術として、特許文献1及び2では、プリンタのファームウェアを書き換える技術が提案されている。また、特許文献3及び4では、機械学習に関連する技術が提案されており、特許文献5では、深層学習を利用した文字識別システムが提案されている。
For example, as a technique related to a method of mounting a new capability on an apparatus,
本件発明者らは、上記のような従来のAI技術について次のような問題があることを見出した。すなわち、従来のAI技術では、新たな能力を追加する対象となるロボット等の装置を手元に用意し、その対象の装置に機械学習の処理を実行させることで、当該対象の装置に新たな能力を獲得させていた。そのため、新たな能力を追加する対象となる装置が遠隔地に配置されている場合には、その装置に新たな能力を追加するのは困難であった。 The present inventors have found that the above-mentioned conventional AI technology has the following problems. That is, in the conventional AI technology, a device such as a robot to be added to a new ability is prepared at hand, and the target device is made to execute a machine learning process, so that the target device has a new ability. Was acquired. Therefore, when the device to be added to the new ability is located in a remote place, it is difficult to add the new ability to the device.
そこで、本件発明者らは、上記の問題点を解決するため、遠隔操作により機械学習の処理を実行させることで、遠隔地に配置された装置に新たな能力を追加するシステムを発明した。ただし、このシステムでは、学習対象装置を遠隔操作するため、本件発明者らは、学習対象装置の周囲で不測の事故等が発生してしまう可能性があるという問題点があることを見出した。 Therefore, in order to solve the above-mentioned problems, the present inventors have invented a system that adds a new ability to a device arranged in a remote place by executing a machine learning process by remote control. However, since this system remotely controls the learning target device, the present inventors have found that there is a problem that an unexpected accident or the like may occur around the learning target device.
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することである。 The present invention, on the one hand, has been made in view of such circumstances, and an object of the present invention is to remotely control a learning target device located at a remote location in order to carry out machine learning. The purpose is to provide a mechanism for ensuring the safety around the device to be learned.
本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention employs the following configuration in order to solve the above-mentioned problems.
すなわち、本発明の一側面に係る学習対象装置は、依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う学習装置に対して遠隔地に配置され、当該学習装置の機械学習により当該指定された能力を獲得させる対象となる学習対象装置であって、表示部と、制御部と、を備え、前記制御部は、指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、を実行するように構成される。 That is, the learning target device according to one aspect of the present invention is arranged at a remote location with respect to a learning device that performs machine learning for acquiring a designated ability in response to a learning request from a client, and the learning device is concerned. It is a learning target device to be acquired by the machine learning of the above, and includes a display unit and a control unit, and the control unit executes an operation related to the designated ability. A reception step that receives a command for remote operation to be instructed from the learning device, an execution step that executes an operation related to the designated ability according to the received command for remote operation, and the operation according to the command for remote operation. During the execution, the display step of displaying on the display unit that the learning device is being operated by the remote operation is executed.
当該構成に係る学習対象装置は、学習装置からの遠隔操作の指令に従って動作している間に、当該学習装置の遠隔操作による動作中であることを表示部に表示する。当該構成では、この表示部の表示を通じて、学習対象装置の周囲の存在する作業者に、当該学習対象装置が遠隔操作されていることを知らせることができ、これにより、学習対象装置の周囲の安全を確保することができる。したがって、当該構成によれば、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。 While the learning target device according to the configuration is operating in accordance with a remote control command from the learning device, the display unit displays that the learning device is being operated by remote control. In this configuration, through the display of this display unit, it is possible to notify the operator existing around the learning target device that the learning target device is remotely controlled, whereby the safety around the learning target device can be obtained. Can be secured. Therefore, according to the configuration, it is possible to provide a mechanism for ensuring the safety around the learning target device when the learning target device located at a remote location is remotely controlled in order to carry out machine learning. ..
なお、「学習対象装置」は、コンピュータにより制御可能な装置であれば特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、学習対象装置は、製造ライン、手術等に利用されるロボットシステムであってよい。また、獲得させる対象となる「能力」は、学習対象装置に実装可能なあらゆる能力を含んでよく、例えば、学習対象装置が提供可能な機能、学習対象装置が実行可能な情報処理等である。能力を獲得することには、未実装の新たな機能又は情報処理を学習対象装置が実施可能になること、及び実装済みの機能又は情報処理を学習対象装置がより効率的に実施可能になることが含まれる。更に、「遠隔地に配置される」とは、学習装置と学習対象装置とが物理的に離れていることであり、例えば、壁で隔たれていたり、別々の建物内にそれぞれが配置されるなどして、学習装置の側にいる人から学習対象装置の側にいる人が見えなかったり、直接声が届かないような配置である。また、例えば、学習対象装置は学習の依頼者の工場内に設置され、学習装置は学習依頼を請け負った者の会社の建物内に設置され、それぞれが別々の会社の建物での配置である。学習装置と学習対象装置とが互いに異なる県に配置される等、学習装置を運営する会社所属の技術者が学習対象装置の配置されている場所を訪れるのに比較的に時間がかかるようなケースに本発明は特に効果を発揮する。また、学習装置は、学習対象装置よりもマシンパワーが高くなるように構成されるのが好ましい。すなわち、学習対象装置は、学習装置よりもマシンパワーが低くなるように構成されてよい。マシンパワーは、CPUの処理速度、メモリの容量、メモリの読み出し速度等によって比較されてよい。 The "learning target device" is not particularly limited as long as it is a device that can be controlled by a computer, and may be appropriately selected according to the embodiment. For example, the learning target device may be a robot system used in a production line, surgery, or the like. Further, the "ability" to be acquired may include any ability that can be implemented in the learning target device, for example, a function that can be provided by the learning target device, information processing that can be executed by the learning target device, and the like. In order to acquire the ability, the learning target device can perform new functions or information processing that have not been implemented, and the learning target device can perform the implemented functions or information processing more efficiently. Is included. Further, "located in a remote place" means that the learning device and the learning target device are physically separated from each other, for example, they are separated by a wall, or they are placed in separate buildings. Then, the person on the side of the learning device cannot see the person on the side of the learning target device, or the voice does not reach directly. Further, for example, the learning target device is installed in the factory of the learning requester, the learning device is installed in the company building of the person who undertakes the learning request, and each is arranged in a separate company building. Cases where it takes a relatively long time for a technician belonging to a company that operates a learning device to visit the place where the learning device is located, such as when the learning device and the learning device are located in different prefectures. The present invention is particularly effective. Further, the learning device is preferably configured to have a higher machine power than the learning target device. That is, the learning target device may be configured to have a lower machine power than the learning device. Machine power may be compared according to the processing speed of the CPU, the capacity of the memory, the read speed of the memory, and the like.
また、上記一側面に係る学習対象装置は、周囲に配置された周辺装置と通信を行うように構成された通信部を更に備えてよく、前記制御部は、前記遠隔操作の指令に従って前記動作を実行している間に、前記周辺装置に対して、前記学習装置の前記遠隔操作による動作中であることを前記通信部により通知する通知ステップを更に実行するように構成されてもよい。当該構成によれば、学習対象装置が遠隔操作により動作していることを周辺装置に認識させることができる。これにより、周辺装置が、学習対象装置における機械学習のための遠隔操作による動作を阻害しないようにすることができる。 Further, the learning target device according to the one aspect may further include a communication unit configured to communicate with peripheral devices arranged around the device, and the control unit performs the operation according to the remote control command. During the execution, the peripheral device may be further configured to perform a notification step for notifying the communication unit that the learning device is being operated by the remote control. According to this configuration, it is possible to make the peripheral device recognize that the learning target device is operating by remote control. As a result, the peripheral device can be prevented from interfering with the operation of the learning target device by remote control for machine learning.
また、上記一側面に係る学習対象装置において、前記制御部は、前記学習装置からの前記遠隔操作が完了した後、前記周辺装置に対して、前記遠隔操作による動作が完了したことを前記通信部により通知する完了通知ステップを更に実行するように構成されてよい。当該構成によれば、学習対象装置において遠隔操作による動作が完了したことを周辺装置に認識させることができる。 Further, in the learning target device according to the one aspect, the control unit notifies the peripheral device that the operation by the remote control is completed after the remote control from the learning device is completed. It may be configured to further perform the completion notification step notified by. According to this configuration, it is possible to make the peripheral device recognize that the operation by remote control has been completed in the learning target device.
また、上記一側面に係る学習対象装置において、前記制御部は、前記学習装置からの前記遠隔操作が完了した後、前記遠隔操作による動作が完了したことを前記表示部に表示させる完了表示ステップを更に実行するように構成されてもよい。これにより、学習対象装置の周囲に存在する作業者に、学習対象装置において遠隔操作による動作が完了したことを知らせることができる。特に、学習対象装置の周囲に存在する作業者に、学習装置の遠隔操作による動作が完了し、学習対象装置が遠隔操作により突然に動き出すことはないことを知らせることができる。 Further, in the learning target device according to the one aspect, the control unit performs a completion display step of displaying on the display unit that the operation by the remote control is completed after the remote control from the learning device is completed. It may be configured to perform further. As a result, it is possible to notify the workers existing around the learning target device that the operation by remote control has been completed in the learning target device. In particular, it is possible to notify the operator existing around the learning target device that the operation of the learning device by remote control is completed and the learning target device does not suddenly start to move by remote control.
また、上記一側面に係る学習対象装置において、前記表示部は、ディスプレイであってよく、前記制御部は、前記表示ステップにおいて、前記学習装置の前記遠隔操作による動作の内容を前記ディスプレイに表示させてもよい。当該構成によれば、学習対象装置の周囲に存在する作業者に、遠隔操作による動作の内容を知らせることができる。 Further, in the learning target device according to the one aspect, the display unit may be a display, and the control unit causes the display to display the contents of the operation of the learning device by the remote control in the display step. You may. According to this configuration, it is possible to notify the operator existing around the learning target device of the content of the operation by remote control.
また、上記一側面に係る学習対象装置において、前記制御部は、前記受付ステップでは、複数の動作の実行を指示する前記指令を受け付けてよく、前記表示ステップでは、前記実行ステップにより実行中の動作の次に実行する動作の内容を前記ディスプレイに表示させてもよい。当該構成によれば、実行中の動作の次に実行する動作の内容をディスプレイに表示させることで、学習対象装置の周囲に存在する作業者に、当該学習対象装置の動作を予め知らせることができる。これにより、学習対象装置の周囲の安全性を高めることができる。 Further, in the learning target device according to the one aspect, the control unit may receive the command instructing the execution of a plurality of operations in the reception step, and in the display step, the operation being executed by the execution step. The content of the operation to be executed next may be displayed on the display. According to this configuration, by displaying the content of the operation to be executed next to the operation being executed on the display, the operator existing around the learning target device can be notified in advance of the operation of the learning target device. .. As a result, the safety around the learning target device can be enhanced.
また、上記一側面に係る学習対象装置において、前記制御部は、実行中の動作が危険な動作である場合に、前記表示ステップにおいて、実行中の動作が危険な動作であることを前記ディスプレイに表示させてもよい。当該構成によれば、危険な動作を明示することで、学習対象装置の周囲に存在する作業者に危険が迫り得ることを明確に知らせることができ、これによって、学習対象装置の周囲の安全性を高めることができる。 Further, in the learning target device according to the one aspect, when the operation being executed is a dangerous operation, the control unit indicates to the display that the operation being executed is a dangerous operation in the display step. It may be displayed. According to this configuration, by clearly indicating the dangerous operation, it is possible to clearly inform the workers existing around the learning target device that the danger may be imminent, thereby ensuring the safety around the learning target device. Can be enhanced.
また、上記一側面に係る学習対象装置において、前記表示部は、表示灯であってよく、前記表示制御部は、前記表示ステップでは、第1の表示態様で前記表示灯を発光させることで、前記学習装置の前記遠隔操作による動作中であること前記表示灯に表示させてよく、前記完了表示ステップでは、前記第1の表示態様とは異なる第2の表示態様で前記表示灯を発光させることで、前記遠隔操作による動作が完了したことを前記表示灯に表示させてよい。当該構成によれば、学習対象装置の周囲の安全を確保する仕組みを安価に実現することができる。 Further, in the learning target device according to the one aspect, the display unit may be an indicator light, and the display control unit causes the indicator light to emit light in the first display mode in the display step. The learning device may be displayed on the indicator lamp when it is being operated by the remote control, and in the completion display step, the indicator lamp is made to emit light in a second display mode different from the first display mode. Then, the indicator lamp may indicate that the operation by the remote control has been completed. According to this configuration, a mechanism for ensuring the safety around the learning target device can be realized at low cost.
本発明の一側面に係る動作方法は、依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う学習装置に対して遠隔地に配置され、当該学習装置の機械学習により当該指定された能力を獲得させる対象となる学習対象装置であって、表示部を備える学習対象装置が、指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、を実行する。当該構成によれば、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。 The operation method according to one aspect of the present invention is arranged at a remote location from a learning device that performs machine learning for acquiring a designated ability in response to a learning request from a client, and the machine learning of the learning device. A learning target device that is a target for acquiring the designated ability, and the learning target device having a display unit issues a remote operation command instructing the execution of an operation related to the designated ability. While the reception step received from, the execution step of executing the operation related to the designated ability according to the received command of the remote operation, and the operation being executed according to the command of the remote operation, the learning device. The display step of displaying on the display unit that the operation is being performed by the remote operation is executed. According to this configuration, it is possible to provide a mechanism for ensuring the safety around the learning target device when the learning target device located at a remote location is remotely controlled in order to carry out machine learning.
本発明によれば、機械学習を実施するために、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism for ensuring the safety around the learning target device when the learning target device located at a remote location is remotely controlled in order to carry out machine learning.
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。例えば、以下では、機械学習させる対象となる学習対象装置の実施形態として、工場内で所定の作業を行うロボットアームシステムを例示する。しかしながら、本発明の適用対象は、ロボットアームシステムに限定される訳ではなく、実施の形態に応じて適宜選択されてよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 Hereinafter, embodiments according to one aspect of the present invention (hereinafter, also referred to as “the present embodiment”) will be described with reference to the drawings. However, the embodiments described below are merely examples of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. That is, in carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted. For example, in the following, as an embodiment of a learning target device to be machine-learned, a robot arm system that performs a predetermined work in a factory will be illustrated. However, the application target of the present invention is not limited to the robot arm system, and may be appropriately selected depending on the embodiment. The data appearing in the present embodiment are described in natural language, but more specifically, the data is specified in a pseudo language, commands, parameters, machine language, etc. that can be recognized by a computer.
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る学習装置及び学習対象装置の適用場面の一例を模式的に例示する。
§1 Application example First, an example of a situation in which the present invention is applied will be described with reference to FIG. FIG. 1 schematically illustrates an example of an application scene of the learning device and the learning target device according to the present embodiment.
図1に示されるとおり、本実施形態に係る学習装置1は、依頼者からの学習依頼に応じて、遠隔地に配置される学習対象装置に指定された新たな能力を獲得するための機械学習を行う情報処理装置である。具体的には、学習装置1は、遠隔地に配置され、機械学習させる対象となる学習対象装置の指定、及び学習対象装置に機械学習により獲得させる能力の指定を学習依頼として依頼者から受け付ける。依頼者は、ユーザ端末4を利用して、ネットワーク10を介して、学習対象装置及び獲得させる能力の指定を行う。
As shown in FIG. 1, the
本実施形態では、工場内で所定の作業を行うロボットアームシステム2が、学習装置1の機械学習により当該指定された能力を獲得させる対象となる学習対象装置として指定されたものとする。なお、獲得させる能力は、ロボットアームシステム2に実装可能なあらゆる能力から実施の形態に応じて適宜選択されてよく、例えば、新たな作業を実施する能力、運用中の作業をより効率的に実施する能力等であってよい。
In the present embodiment, it is assumed that the
学習装置1は、制御データを送信することで、学習依頼で指定された能力に関連する学習のための動作を実行するように、学習対象装置に指定されたロボットアームシステム2を遠隔操作する。次に、学習装置1は、ロボットアームシステム2の遠隔操作の結果に基づいて、指定された能力の機械学習のための学習データを収集する。そして、学習装置1は、収集した学習データを用いて、指定された能力を獲得させるように学習器(後述するニューラルネットワーク6)の機械学習を行う。これにより、学習装置1は、学習対象装置に指定されたロボットアームシステム2に対して、学習依頼で指定された能力を実施させるための学習済みの学習器を生成することができる。
By transmitting control data, the
また、本実施形態では、遠隔地に配置されたロボットアームシステム2には、指定された能力に関する動作を実行させるに過ぎず、指定された能力を獲得するための機械学習の処理は、学習装置1に実行させる。そのため、遠隔地に配置されたロボットアームシステム2のマシンパワーが制限されていても、当該ロボットアームシステム2に獲得させる能力の機械学習の処理を実施することができる。
Further, in the present embodiment, the
したがって、本実施形態によれば、高度なスキルを有する要因及び機械学習に利用する複雑なシステムを持たない一般の企業(依頼者)から学習依頼を受け付け、受け付けた学習依頼に応じて機械学習の実施を行う技術的な仕組みを提供することができる。特に、ロボットアームシステム2のように遠隔地の工場、倉庫等に配置された装置に新たな能力を適切に追加するための技術的な仕組みを提供することができる。
Therefore, according to the present embodiment, a learning request is received from a general company (requester) who does not have a factor having advanced skills and a complicated system used for machine learning, and machine learning is performed according to the received learning request. It is possible to provide a technical mechanism for implementation. In particular, it is possible to provide a technical mechanism for appropriately adding a new capability to a device arranged in a factory, a warehouse, or the like in a remote place such as the
なお、「遠隔地に配置される」とは、学習装置1と学習対象装置とが物理的に離れていることであり、例えば、壁で隔たれていたり、別々の建物内にそれぞれが配置されるなどして、学習装置の側にいる人から学習対象装置の側にいる人が見えなかったり、直接声が届かないような配置である。また、例えば、学習対象装置は学習の依頼者の工場内に設置され、学習装置1は学習依頼を請け負った者の会社の建物内に設置され、それぞれが別々の会社の建物での配置である。したがって、依頼者の利用するユーザ端末4の配置は、実施の形態に応じて適宜選択されてよい。例えば、ユーザ端末4は、学習装置1及びロボットアームシステム2と異なるローカルエリアネットワークに配置され、学習装置1及びロボットアームシステム2とインターネット等のネットワークを介して接続するように配置されてもよい。また、例えば、ユーザ端末4は、学習装置1と同じローカルエリアネットワークに配置されてもよいし、ロボットアームシステム2と同じローカルエリアネットワークに配置されてもよい。更に、学習装置1は、直接入力を受け付けることで、ユーザ端末4を介さず依頼者から学習依頼を受けてもよい。
In addition, "arranged in a remote place" means that the
一方、本実施形態に係るロボットアームシステム2は、依頼者からの学習依頼に応じて指定された能力を獲得するための機械学習を行う上記学習装置1に対して遠隔地に配置され、当該学習装置1の機械学習により指定された能力を獲得させる対象となる学習対象装置の一例である。本実施形態に係るロボットアームシステム2は、所定の作業を実施するロボットアーム30、及びロボットアーム30を制御するロボットコントローラ(RC)20を備えている。また、ロボットコントローラはPLC(programmable logic controller)などでもよい。これにより、ロボットアームシステム2は、指定された能力に関連する動作の実施を指示する遠隔操作の指令を上記学習装置1から受け付け、受け付けた遠隔操作の指令に従って、指定された能力に関連する動作を実行するように構成される。すなわち、ロボットアームシステム2は、RC20によって、学習装置1から指定された動作をロボットアーム30に実行させるように構成される。
On the other hand, the
また、ロボットアームシステム2は、所定の表示を行うディスプレイ32を備えている。ディスプレイ32は、例えば、ロボットアーム30の近傍等、ロボットアームシステム2の周囲に存在する工場内の作業者が視認可能な場所に配置される。このディスプレイ32は、本発明の「表示部」の一例である。本実施形態に係るロボットアームシステム2は、遠隔操作の指令の指令に従って動作を実行している間、学習装置1の遠隔操作による動作中であることをディスプレイ32に表示させるように構成される。
Further, the
これによって、本実施形態では、ディスプレイ32の表示を通じて、ロボットアームシステム2が学習装置1によって遠隔操作されている最中であることを工場内の作業者等に知らせることができる。したがって、本実施形態によれば、学習装置1による遠隔操作が実施されている間におけるロボットアームシステム2の周囲の安全を確保することができる。
Thereby, in the present embodiment, it is possible to notify the workers in the factory that the
なお、本実施形態では、ロボットアームシステム2は、ロボットアーム30の可動範囲の状況を監視するカメラ31を備えている。カメラ31は、ロボットアーム30の可動範囲の状況を監視する監視装置(撮影装置)の一例である。また、本実施形態では、工場内において、ロボットアームシステム2の他に、オペレータの操作により他律的に又は自律的に移動可能なロボット装置5が作業を行っている。
In the present embodiment, the
§2 構成例
[ハードウェア構成]
<学習装置>
次に、図2を用いて、本実施形態に係る学習装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る学習装置1のハードウェア構成の一例を模式的に例示する。
§2 Configuration example [Hardware configuration]
<Learning device>
Next, an example of the hardware configuration of the
図2に示されるとおり、本実施形態に係る学習装置1は、制御部11、記憶部12、通信インタフェース、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、通信インタフェースを「通信I/F」と記載している。
As shown in FIG. 2, the
制御部11は、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部12は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成され、制御部11で実行される学習プログラム121、学習器の学習に利用する学習データ122、依頼者に指定された能力をロボットアームシステム2に付与するための能力付与データ123等を記憶する。
The
学習プログラム121は、学習装置1に後述する機械学習の処理(図7)を実行させるためのプログラムである。学習データ122は、依頼者により指定された能力の機械学習に利用されるデータであり、遠隔操作したロボットアームシステム2から収集される。能力付与データ123は、機械学習の結果により獲得した能力をロボットアームシステム2に付与するためのデータである。詳細は後述する。
The
通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワーク10を介した有線又は無線通信を行うためのインタフェースである。学習装置1は、この通信インタフェース13により、ロボットアームシステム2及びユーザ端末4との間でネットワーク10を介してデータ通信を行うことができる。なお、ネットワーク10の種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。
The
入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置14及び出力装置15を介して、学習装置1を操作することができる。
The
ドライブ16は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ16の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記学習プログラム121は、この記憶媒体91に記憶されていてもよい。
The
記憶媒体91は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置1は、この記憶媒体91から、上記学習プログラム121を取得してもよい。
The
ここで、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
Here, in FIG. 2, as an example of the
なお、学習装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。学習装置1は、複数台の情報処理装置で構成されてもよい。また、学習装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC(Personal Computer)等であってもよい。後述する機械学習の処理を実行するため、学習装置1は、ロボットアームシステム2よりもマシンパワーが高くなるように構成されるのが好ましい。なお、マシンパワーは、CPUの処理速度、メモリの記憶容量、メモリの読み出し速度等によって特定されてよい。例えば、学習装置1は、ロボットアームシステム2のRC20よりも高速に動作するCPUを有することで、ロボットアームシステム2よりもマシンパワーが高くなっていてもよい。また、学習装置1とRC20とのCPUの処理速度が同じである場合、学習装置1のRAMが、RC20のRAMよりも大容量又は高速であることで、学習装置1は、ロボットアームシステム2よりもマシンパワーが高くなっていてもよい。
Regarding the specific hardware configuration of the
<ロボットアームシステム>
次に、図3及び図4を更に用いて、本実施形態に係るロボットアームシステム2のハードウェア構成の一例について説明する。図3は、本実施形態に係るRC20のハードウェア構成の一例を模式的に例示する。図4は、本実施形態に係るロボットアーム30の動作状態の一例を模式的に例示する。図1及び図3に示されるとおり、本実施形態に係るロボットアームシステム2は、RC20、ロボットアーム30、カメラ31、及びディスプレイ32を備える。以下、各構成要素について説明する。
<Robot arm system>
Next, an example of the hardware configuration of the
(RC)
まず、RC20について説明する。本実施形態に係るRC20は、制御部21、記憶部22、外部インタフェース23、及び通信インタフェース24が電気的に接続されたコンピュータである。これにより、RC20は、ロボットアーム30、カメラ31、及びディスプレイ32の動作を制御するように構成される。なお、図3では、外部インタフェース及び通信インタフェースを「外部I/F」及び「通信I/F」と記載している。
(RC)
First, RC20 will be described. The RC20 according to the present embodiment is a computer to which the
制御部21は、CPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、RAM、ROM等で構成され、制御プログラム221等を記憶する。制御プログラム221は、RC20に後述するロボットアーム30の制御処理(図8)を実行させるためのプログラムである。制御部21は、この制御プログラム221を解釈及び実行することで、後述する各ステップの処理を実行するように構成される。
The
外部インタフェース23は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。本実施形態では、RC20は、各外部インタフェース23を介して、ロボットアーム30、カメラ31、及びディスプレイ32に接続する。
The
通信インタフェース24は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、有線又は無線通信を行うためのインタフェースである。通信インタフェース24は、本発明の「通信部」の一例である。RC20は、通信インタフェース24により、遠隔地に配置された学習装置1、及び工場内のロボットアームシステム2の周囲に配置される周辺装置(例えば、自走可能なロボット装置5)との間でデータ通信を行うことができる。
The
なお、RC20の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。制御部21は、複数のプロセッサを含んでもよい。制御部21は、FPGAにより構成されてもよい。記憶部22は、制御部21に含まれるRAM及びROMにより構成されてもよい。記憶部22は、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置で構成されてもよい。また、RC20は、提供されるサービス専用に設計された情報処理装置の他、制御する対象に応じて、汎用のデスクトップPC、タブレットPC等であってもよい。
Regarding the specific hardware configuration of RC20, it is possible to omit, replace, and add components as appropriate according to the embodiment. The
(ロボットアーム)
次に、ロボットアーム30について説明する。ロボットアーム30は、所望の作業を実施可能に適宜構成されてよい。図4の例では、ロボットアーム30は、起点となる基台部301、可動軸となる2つの関節部302、骨格を形成する2つのリンク部303、及び先端に取り付けられるエンドエフェクタ304を備えている。
(Robot arm)
Next, the
各関節部302は、サーボモータ、ブラシレスモータ等の駆動モータを備えており、各リンク部303を旋回又は回転可能に構成されている。また、各関節部302には、ロータリエンコーダ等の角度を検出可能な角度センサが取り付けられている。これにより、ロボットアーム30は、各関節部302の角度を特定可能に構成されている。
Each
エンドエフェクタ304は、工場内で実施する作業に応じて適宜形成される。このエンドエフェクタ304には、エンドエフェクタ304に作用する力を検出するように構成された力センサが取り付けられていてもよい。これにより、ロボットアーム30は、エンドエフェクタ304に作用する力を検出するように構成可能である。
The
ロボットアーム30は、各関節部302、各リンク部303及びエンドエフェクタ304に応じて、可動範囲308を有している。すなわち、可動範囲308は、各関節部302を駆動して、エンドエフェクタ304が到達可能な範囲である。本実施形態では、この可動範囲308内に、ロボットアーム30の動作を許可する許可範囲309が設定される。詳細は後述する。
The
なお、ロボットアーム30の具体的な構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、関節部302及びリンク部303の数は、実施の形態に応じて適宜選択されてよい。また、各関節部302には、上記角度センサの他に、トルクセンサが取り付けられていてもよい。これにより、各関節部302をトルクにより制御することができる。
Regarding the specific configuration of the
(ディスプレイ)
本実施形態では、ディスプレイ32は、ロボットアームシステム2(ロボットアーム30)のステータスを表示するのに利用される。そのため、ディスプレイ32は、当該ステータスを表示可能であれば特に限定されなくてもよく、公知の液晶ディスプレイ、タッチパネルディスプレイ等が用いられてよい。
(display)
In this embodiment, the
(カメラ)
本実施形態では、カメラ31は、ロボットアームシステム2(ロボットアーム30)の可動範囲308の状況を撮影するように配置される。これにより、カメラ31により撮影された撮影画像には、可動範囲308の状況が映る。この撮影画像は、可動範囲308の状況を示す状況情報の一例である。なお、カメラ31は、所定の場所に固定されてもよいし、モータ等により撮影方向(向き)を変更可能に構成されてもよい。カメラ31には、一般のデジタルカメラ、ビデオカメラ、360度カメラ等が用いられてよいし、可視光撮影用でも赤外光撮影用カメラであってもよい。
(camera)
In the present embodiment, the
<ロボット装置>
ロボット装置5は、例えば、CPU等で構成される制御部、プログラムなどを記憶する記憶部、RC20と通信を行う通信インタフェース、上記ロボットアーム30と同様のロボットアーム、他律的又は自律的に移動するための車輪モジュール等を備える。これにより、ロボット装置5は、工場内を移動し、所定の作業を行うように適宜構成される。なお、ロボット装置5の種類は、特に限定されず、もちろん人型でなくてもよく、工場内で行う作業に応じて適宜選択されてよい。
<Robot device>
The
<ユーザ端末>
ユーザ端末4は、例えば、CPU等で構成される制御部、プログラム等を記憶する記憶部、ネットワークを介した通信を行うための通信インタフェース、及び入出力装置が電気的に接続されたコンピュータである。ユーザ端末4は、学習装置1を運用するサービス提供者に対して依頼者が機械学習の依頼(学習依頼)を行うのに利用される。ユーザ端末4には、例えば、ネットワークに接続可能なデスクトップPC、タブレットPC、スマートフォンを含む携帯電話等が用いられてよい。
<User terminal>
The
[ソフトウェア構成]
<学習装置>
次に、図5を用いて、本実施形態に係る学習装置1のソフトウェア構成の一例を説明する。図5は、本実施形態に係る学習装置1のソフトウェア構成の一例を模式的に例示する。
[Software configuration]
<Learning device>
Next, an example of the software configuration of the
学習装置1の制御部11は、記憶部12に記憶された学習プログラム121をRAMに展開する。そして、制御部11は、RAMに展開された学習プログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示されるとおり、本実施形態に係る学習装置1は、ソフトウェアモジュールとして、学習依頼受付部110、許可範囲設定部111、状況取得部112、遠隔操作部113、学習データ収集部114、学習処理部115、能力付与データ生成部116、及び配信部117を備えるコンピュータとして構成される。
The
学習依頼受付部110は、依頼者から、遠隔地に配置された学習対象装置の指定及び指定された学習対象装置に機械学習により獲得される能力の指定を学習依頼として受け付ける。本実施形態では、依頼者から、ロボットアームシステム2の機械学習の依頼を受け付けたものとする。
The learning
許可範囲設定部111は、学習対象装置の可動範囲内で、当該学習対象装置の動作を許可する許可範囲を設定する。本実施形態では、許可範囲設定部111は、上記ロボットアーム30の可動範囲308内において許可範囲309の設定を行う。
The permission
状況取得部112は、学習対象装置の可動範囲の状況を監視する監視装置から、当該可動範囲の状況を示す状況情報を取得する。本実施形態では、状況取得部112は、可動範囲308を撮影するように配置されたカメラ31から、当該カメラ31により撮影された撮影画像を状況情報として取得する。
The
遠隔操作部113は、制御データを学習対象装置に送信することで、学習依頼で指定された能力に関連する動作を実行するように学習対象装置を遠隔操作する。学習データ収集部114は、遠隔操作の結果に基づいて、指定された能力の機械学習のための学習データを収集する。
By transmitting the control data to the learning target device, the
本実施形態では、遠隔操作部113は、ネットワーク10を介して、所定の動作を指令する制御データをRC20に送信することで、ロボットアームシステム2のロボットアーム30を遠隔操作する。このとき、遠隔操作部113は、カメラ31から取得した撮影画像に基づいて、指定された許可範囲309内で動作するようにロボットアームシステム2を遠隔操作する。そして、学習データ収集部114は、指定された能力に対して達成すべき作業目標を示す目標データ及び当該作業目標を達成するまでの動作過程において得られるセンサデータを入力データとし、当該作業目標を達成するまでの動作過程においてRC20に送信した制御データを教師データとする学習データ122を収集する。
In the present embodiment, the
学習処理部115は、収集した学習データを用いて、指定された能力を獲得させるように学習器の機械学習を行う。能力付与データ生成部116は、機械学習が完了した学習済みの学習器を学習対象装置に装備させることで指定された能力を学習対象装置に付与するための能力付与データを作成する。配信部117は、生成した能力付与データを学習対象装置に配信する。
The
本実施形態では、学習処理部115は、ロボットアームシステム2から収集した学習データ122を用いて、ニューラルネットワーク6の機械学習を行う。能力付与データ生成部116は、学習済みのニューラルネットワーク6をRC20に装備させるための能力付与データ123を生成する。配信部117は、ネットワーク10を介して、生成した能力付与データ123をRC20に配信する。
In the present embodiment, the
(学習器)
次に、学習器について説明する。図5に示されるとおり、本実施形態に係る学習器は、ニューラルネットワーク6により構成される。ニューラルネットワーク6は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力から順に、入力層61、中間層(隠れ層)62、及び出力層63を備えている。
(Learning device)
Next, the learner will be described. As shown in FIG. 5, the learner according to the present embodiment is configured by the
なお、図5の例では、ニューラルネットワーク6は、1層の中間層62を備えており、入力層61の出力が中間層62の入力となり、中間層62の出力が出力層63の入力となっている。ただし、中間層62の数は1層に限られなくてもよく、ニューラルネットワーク6は、中間層62を2層以上備えてもよい。
In the example of FIG. 5, the
各層61〜63は、1又は複数のニューロンを備えている。例えば、入力層61のニューロンの数は、入力に利用する入力データに応じて設定することができる。中間層62のニューロンの数は、実施の形態に応じて適宜設定することができる。また、出力層63のニューロンの数は、出力する制御データに応じて設定することができる。各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。
Each layer 61-63 comprises one or more neurons. For example, the number of neurons in the
隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。図5の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。 Neurons in adjacent layers are appropriately connected to each other, and a weight (connection load) is set for each connection. In the example of FIG. 5, each neuron is connected to all neurons in the adjacent layer, but the connection of neurons does not have to be limited to such an example and is appropriately set according to the embodiment. You can.
学習処理部115は、ニューラルネットワークの学習処理により、収集した学習データ122に含まれる目標データ及びセンサデータを入力すると、制御データを出力値として出力するようにニューラルネットワーク6を構築する。能力付与データ生成部116は、構築したニューラルネットワーク6の構成(例えば、ニューラルネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を含む能力付与データ123を生成する。
The
<ロボットアームシステム>
次に、図6を用いて、本実施形態に係るロボットアームシステム2のソフトウェア構成の一例を説明する。図6は、本実施形態に係るRC20を含むロボットアームシステム2のソフトウェア構成の一例を模式的に例示する。
<Robot arm system>
Next, an example of the software configuration of the
RC20の制御部21は、記憶部22に記憶された制御プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された制御プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図6に示されるとおり、本実施形態に係るRC20を含むロボットアームシステム2は、ソフトウェアモジュールとして、遠隔操作受付部211、動作処理部212、表示制御部213、及び通知部214を備えるコンピュータとして構成される。
The
遠隔操作受付部211は、指定された能力に関連する学習のための動作の実行を指示する遠隔操作の指令を学習装置1から受け付ける。動作処理部212は、受け付けた遠隔操作の指令に従って、指定された能力に関連する動作を実行する。表示制御部213は、遠隔操作の指令に従って動作を実行している間に、学習装置1の遠隔操作による動作中であることディスプレイ32に表示させる。通知部214は、遠隔操作の指令に従って動作を実行している間に、周辺装置(例えば、ロボット装置5)に対して、学習装置1の遠隔操作による動作中であることを通知する。
The remote
<その他>
学習装置1及びロボットアームシステム2(RC20)の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、学習装置1及びRC20の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、学習装置1及びRC20それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
<Others>
Each software module of the
§3 動作例
[学習装置]
次に、図7を用いて、学習装置1の動作例を説明する。図7は、本実施形態に係る学習装置1の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
§3 Operation example [Learning device]
Next, an operation example of the
(ステップS101)
ステップS101では、制御部11は、学習依頼受付部110として動作し、依頼者から学習依頼を受け付ける。例えば、依頼者は、ユーザ端末4を操作して、機械学習させる対象となる学習対象装置の指定、及び学習対象装置に機械学習により獲得させる能力の指定を行う。この学習依頼の入力は、依頼者本人により行われるのではなく、依頼者から依頼内容を聞いた者により行われてもよい。すなわち、依頼内容の入力は、依頼者本人によって実施されなくてもよい。学習対象装置及び獲得対象の能力の指定が完了すると、制御部11は、次のステップS102に処理を進める。
(Step S101)
In step S101, the
なお、本ステップS101では、学習装置1は、学習対象装置の指定を受け付けることにより、当該学習対象装置の遠隔操作に利用する情報を取得する。例えば、学習装置1は、ロボットアームシステム2が学習対象装置に指定されたことに応じて、ロボットアームシステム2の遠隔操作に利用する情報としてRC20のIPアドレス等を取得する。
In this step S101, the
また、学習装置1は、学習対象装置の種類に応じて、機械学習により獲得可能な能力の一覧を依頼者に提示することで、機械学習の対象となる能力の指定を受け付けてもよい。機械学習の対象となる能力の一覧は、学習対象装置毎にテンプレートとして予め用意されてもよい。
Further, the
機械学習の対象となる能力は、学習対象装置に実装可能なあらゆる能力から適宜選択されてよい。例えば、ロボットアーム30が部品の移動、取り付け、加工、バリ取り、はんだ付け、溶接等の作業に利用されている場合、新たな対象物に対して当該作業を実施する能力等が機械学習の対象に指定されてよい。また、それらの作業が既に運用されている場合には、その運用中の当該作業を効率的に実施する能力等が機械学習の対象に指定されてよい。
The ability to be the target of machine learning may be appropriately selected from all the abilities that can be implemented in the device to be learned. For example, when the
また、制御部11は、本ステップS101において、機械学習により獲得させる能力の指定と共に、当該能力の達成条件の入力を受け付けてもよい。能力の達成条件とは、学習対象装置に獲得させる能力の付加的な条件であり、例えば、ある指定された作業を何秒以内で行うといった時間条件である。
Further, in the step S101, the
(ステップS102)
ステップS102では、制御部11は、許可範囲設定部111として動作し、ステップS101で指定された学習対象装置の可動範囲内に、当該学習対象装置の動作を許可する許可範囲を設定する。本実施形態では、制御部11は、ロボットアーム30の可動範囲308内で、当該ロボットアーム30の動作を許可する許可範囲309を設定する。許可範囲309の設定が完了すると、制御部11は、次のステップS103に処理を進める。
(Step S102)
In step S102, the
なお、許可範囲309の設定は適宜行われてよい。例えば、制御部11は、オペレータから、許可範囲309の指定を受け付けてもよい。この場合、オペレータは、入力装置14を操作することで、可動範囲308内に許可範囲309を設定する。この際、学習装置1は、可動範囲308の状況を撮影するカメラ31から撮影画像を取得し、取得した撮影画像を出力装置15に出力してもよい。これにより、オペレータは、出力される撮影画像内で、ステップS101で指定された能力に無関係な場所等を省いた上で、許可範囲309を指定することができる。また、カメラ31から取得した撮影画像の画像処理結果に基づいて、許可範囲309をリアルタイムに変更してもよい。例えば、画像処理により可動範囲308内に人又は物体が存在すると判定した場合には、当該人又は物体が存在する部分を範囲から外し、その時点での許可範囲309を設定してもよい。
The
また、例えば、制御部11は、依頼者から、許可範囲309の指定を受け付けてもよい。この場合、制御部11は、上記ステップS101において、学習依頼と共に、許可範囲309の指定を受け付けてもよい。これにより、制御部11は、依頼者の入力に基づいて、可動範囲308内に許可範囲309を設定することができる。
Further, for example, the
また、例えば、制御部11は、ステップS101で指定された能力に基づいて、可動範囲308内に許可範囲309を自動的に設定してもよい。この場合、制御部11は、ステップS101で指定された能力の実施に関連する領域を特定し、特定した領域を許可範囲309に設定してもよい。
Further, for example, the
(ステップS103)
ステップS103では、制御部11は、状況取得部112として動作し、ステップS101で指定された学習対象装置の可動範囲の状況を監視する監視装置から、当該可動範囲の状況を示す状況情報を取得する。本実施形態では、制御部11は、ステップS101で取得した情報を利用してRC20にアクセスして、RC20に接続されたカメラ31を利用して、可動範囲308の状況を撮影する。これにより、制御部11は、可動範囲308の状況を映した撮影画像を状況情報として取得することができる。撮影画像を取得すると、制御部11は、次のステップS104に処理を進める。
(Step S103)
In step S103, the
(ステップS104)
ステップS104では、制御部11は、遠隔操作部113として動作し、制御データを学習対象装置に送信することで、ステップS101で指定された能力に関連する動作を実行するように学習対象装置を遠隔操作する。本実施形態では、制御部11は、ネットワーク10を介して、ステップS101で指定された能力に関連する所定の動作を指令する制御データをRC20に送信する。制御データは、例えば、各関節部302の駆動モータの駆動量を規定する。RC20は、後述するとおり、受信した制御データに基づいて、ロボットアーム30の各関節部302を駆動する。これにより、制御部11は、ロボットアームシステム2を遠隔操作する。ロボットアームシステム2の遠隔操作を行った後、制御部11は、次のステップS105に処理を進める。
(Step S104)
In step S104, the
遠隔操作による動作の内容は、適宜決定されてよい。例えば、遠隔操作による動作の内容は、オペレータにより決定されてもよい。また、例えば、それぞれロボットアーム30の異なる動作を規定する複数のテンプレートが用意されてもよい。この場合、制御部11は、テンプレートをランダムに選択することで、遠隔操作による動作の内容を決定してもよい。また、制御部11は、繰り返し遠隔操作する間に、動的計画法等の手法を用いて、ステップS101で指定された獲得対象の能力に適するように当該遠隔操作による動作の内容を決定してもよい。更に、制御部11は、当該遠隔操作により、複数の工程を含む一連の動作をロボットアームシステム2に実行させてもよい。
The content of the operation by remote control may be appropriately determined. For example, the content of the operation by remote control may be determined by the operator. Further, for example, a plurality of templates may be prepared, each of which defines different movements of the
なお、本実施形態では、上記ステップS102では、可動範囲308内に許可範囲309が設定され、かつ、上記ステップS103により、制御部11は、可動範囲308の状況を撮影した撮影画像をカメラ31から取得している。そこで、本ステップS104では、制御部11は、カメラ31から取得した撮影画像に基づいて、設定された許可範囲309内でロボットアーム30が動作するようにロボットアームシステム2を遠隔操作する。すなわち、制御部11は、カメラ31から取得した撮影画像を利用して、ロボットアーム30が許可範囲309の外に出ていないかどうかを確認しながら、ロボットアームシステム2の遠隔操作を行う。
In the present embodiment, in step S102, the
また、制御部11は、許可範囲309内に侵入物(例えば、人、物体等)が侵入したか否かを監視する。許可範囲309内に侵入物が侵入したか否かは、例えば、テンプレートマッチング等の公知の画像処理により判定可能である。制御部11は、許可範囲309内に侵入物が侵入したと判定した場合に、ロボットアームシステム2に対する遠隔操作の指令の送信を一時停止(中断)する。このとき、制御部11は、侵入した侵入物を許可範囲309外に出すためのアナウンス実施の指令をロボットアームシステム2に送信してもよい。そして、許可範囲309から侵入物が退出した後に、制御部11は、ロボットアームシステム2に対する遠隔操作の指令の送信を再開する。これにより、許可範囲309内の安全性を確保することができる。
In addition, the
(ステップS105)
ステップS105では、制御部11は、学習データ収集部114として動作し、ステップS104による遠隔操作の結果に基づいて、指定された能力の機械学習のための学習データ122を収集する。学習データ122を収集し終えると、制御部11は、次のステップS106に処理を進める。
(Step S105)
In step S105, the
なお、学習データ122の内容は、学習器の種類、学習対象装置の種類、獲得対象の能力等に応じて適宜決定されてよい。本実施形態では、ニューラルネットワーク6が学習器として用いられ、ロボットアームシステム2が学習対象装置に指定され、ロボットアーム30が新たな作業を実施する又は運用中の作業をより効率的に実施する能力が獲得対象の能力として指定される。また、RC20は、達成すべき目標及び各関節部302の角度センサのセンサデータに基づいて、ロボットアーム30の動作を制御するとする。
The content of the learning
この場合、制御部11は、ステップS101で指定された獲得対象の能力に応じて、達成すべき作業目標を示す目標データを作成する。目標データの内容は、実施の形態に応じて適宜決定されてよい。例えば、所定時間内に対象の作業を完遂することに応じて、目標データでは、ロボットアーム30の位置、角度、移動速度等が指定されてよい。また、ロボットアーム30の動作を改善する場合、制御部11は、ロボットアーム30の動作を撮影した撮影画像をカメラ31から取得し、取得した撮影画像を画像解析することで、ロボットアーム30の動作を改善するように、目標データの内容を決定してもよい。
In this case, the
次に、制御部11は、ステップS104の遠隔操作の結果に基づいて、目標データにより示される作業目標をロボットアームシステム2が達成したか否かを判定する。目標データの示す作業目標をロボットアームシステム2が達成した場合、制御部11は、当該作業目標を達成するまでの動作過程において、RC20に送信した制御データを取得する。更に、制御部11は、当該作業目標を達成するまでの動作過程において、各関節部302の角度センサより検出したセンサデータをRC20から取得する。センサデータは、学習対象装置(ロボットアームシステム2)の状態を示す状態データの一例である。センサデータは、制御データにより示される指令によりロボットアーム30を駆動する前に取得されてよい。
Next, the
そして、制御部11は、制御データを教師データとし、教師データとした制御データによる動作を行う直前に得られたセンサデータ及び目標データを入力データとして、目標データ及びセンサデータと制御データとを紐付けて組にする。これにより、制御部11は、目標データ及びセンサデータを入力データとして含み、かつ制御データを教師データとして含む学習データ122を収集する。すなわち、本ステップS105では、制御部11は、作業目標を達成できなかったときの遠隔操作の結果は無視し、指定された能力を達成したときの遠隔操作の結果から、当該能力の機械学習に利用するための学習データを収集する。
Then, the
なお、作業目標を達成したか否かは適宜判定されてよい。例えば、制御部11は、遠隔操作の結果の写る撮影画像をカメラ31から取得し、取得した撮影画像を画像解析することで、作業目標を達成したか否かを判定してもよい。また、ロボットアームシステム2及びその周囲に設けられた各種センサ(角度センサ等)により、遠隔操作の結果を得るようにしてもよい。この場合、制御部11は、ロボットアームシステム2及びその周囲に設けられた各種センサ(角度センサ等)の検出結果に基づいて、作業目標を達成したか否かを判定してもよい。また、上記ステップS101において、獲得対象となる能力の指定と共に、当該能力の達成条件の入力を受け付けている場合には、制御部11は、その達成条件を達成したか否かを適宜判定してもよい。
Whether or not the work goal has been achieved may be appropriately determined. For example, the
(ステップS106)
ステップS106では、制御部11は、十分な件数の学習データ122を収集したか否かを判定する。十分な件数の学習データ122を収集したと判定した場合には、制御部11は、次のステップS107に処理を進める。他方、十分な件数の学習データ122を収集していないと判定した場合には、制御部11は、ステップS103〜S105の処理を繰り返す。
(Step S106)
In step S106, the
なお、当該判定は、閾値を利用して行われてよい。すなわち、制御部11は、収集した学習データ122の件数と閾値とを比較することで、十分な件数の学習データ122を収集したか否かを判定してもよい。このとき、閾値は、オペレータにより設定されてもよいし、機械学習の対象となる能力に応じて設定されてもよい。閾値の設定方法は、実施の形態に応じて適宜選択可能である。
The determination may be made using the threshold value. That is, the
(ステップS107)
ステップS107では、制御部11は、機械学習のための遠隔操作が完了したことを示す完了通知をロボットアームシステム2に送信する。完了通知の送信が完了すると、制御部11は、次のステップS108に処理を進める。
(Step S107)
In step S107, the
(ステップS108)
ステップS108では、制御部11は、学習処理部115として動作し、ステップS105により収集した学習データ122を用いて、指定された能力を獲得させるようにニューラルネットワーク6の機械学習を行う。
(Step S108)
In step S108, the
具体的には、まず、制御部11は、機械学習の処理対象となるニューラルネットワーク6を用意する。用意するニューラルネットワーク6の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。再学習を行う場合には、制御部11は、再学習を行う対象となるニューラルネットワークの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す学習結果データに基づいて、ニューラルネットワーク6を用意してもよい。
Specifically, first, the
次に、制御部11は、ステップS105で収集した学習データ122に含まれる目標データ及びセンサデータを入力データとし、制御データを教師データとして、ニューラルネットワーク6の学習を行う。このニューラルネットワーク6の学習には、勾配降下法、確率的勾配降下法等が用いられてよい。
Next, the
例えば、制御部11は、学習データ122に含まれる目標データ及びセンサデータを入力層61に入力して、ニューラルネットワーク6の順伝搬方向の演算処理を行う。これにより、制御部11は、ニューラルネットワーク6の出力層63から出力値を得る。次に、制御部11は、出力層63から出力された出力値と学習データ122に含まれる制御データとの誤差を算出する。続いて、制御部11は、誤差逆伝搬法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部11は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。
For example, the
制御部11は、各件の学習データ122について、出力層63から出力される出力値が対応する制御データと一致するまでこの一連の処理を繰り返すことにより、ニューラルネットワーク6の機械学習を行う。これにより、目標データ及びセンサデータを入力すると、対応する制御データを出力する学習済みのニューラルネットワーク6を構築することができる。ニューラルネットワーク6の機械学習が完了すると、制御部11は、次のステップS109に処理を進める。
The
(ステップS109)
ステップS109では、制御部11は、能力付与データ生成部116として動作し、機械学習が完了した学習済みのニューラルネットワーク6をロボットアームシステム2(RC20)に装備させることで指定された能力をロボットアームシステム2に付与するための能力付与データ123を生成する。能力付与データ123を生成した後、制御部11は、次のステップS110に処理を進める。
(Step S109)
In step S109, the
なお、能力付与データ123の形式は、実施の形態に応じて適宜決定されてよい。例えば、RC20が、ニューラルネットワークを用いた演算処理を実施している場合には、制御部11は、ステップS108で構築したニューラルネットワーク6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す学習結果データを能力付与データ123として生成してもよい。また、例えば、RC20がFPGAを備える場合には、制御部11は、ステップS108で構築したニューラルネットワーク6をFPGA内で実現するために当該FPGAに書き込むデータを能力付与データ123として生成してもよい。また、例えば、制御部11は、ステップS108で構築したニューラルネットワーク6による演算処理をRC20に実行させるためのプログラム又はプログラムを修正するパッチデータを能力付与データ123として生成してもよい。各形式の能力付与データ123は、公知のプログラム自動生成手法等を用いて、自動的に生成されてよい。
The format of the ability-imparting
(ステップS110)
ステップS110では、配信部117として動作し、ネットワーク10を介して、ステップS109で生成した能力付与データ123をロボットアームシステム2に配信する。RC20は、受信した能力付与データ123をインストールすることで、ステップS101で指定された能力を獲得することができる。能力付与データ123の配信が完了すると、制御部11は、本動作例に係る処理を終了する。
(Step S110)
In step S110, the
[ロボットアームシステム]
次に、図8を用いて、ロボットアームシステム2の動作例を説明する。図8は、本実施形態に係るロボットアームシステム2の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[Robot arm system]
Next, an operation example of the
(ステップS201)
ステップS201では、RC20の制御部21は、遠隔操作受付部211として動作し、指定された能力に関連する動作の実行を指示する遠隔操作の指令を学習装置1から受け付ける。本ステップS201は、本発明の「受付ステップ」の一例である。具体的には、制御部21は、上記ステップS104の制御データによる遠隔操作の指令を学習装置1から受け付ける。このとき、制御部21は、複数の動作の実行を指示する複数件の制御データを受信してもよい。制御データを受信すると、制御部21は、次のステップS202に処理を進める。
(Step S201)
In step S201, the
(ステップS202)
ステップS202では、制御部21は、動作処理部212として動作し、ステップS201で受け付けた遠隔操作の指令に従って、指定された能力に関連する動作を実行する。本ステップS202は、本発明の「実行ステップ」の一例である。本実施形態では、制御部21は、制御データに基づいて、各関節部302の駆動モータを駆動することにより、遠隔操作の指令に応じた動作をロボットアーム30に実行させる。本ステップS202によって遠隔操作の指令に従って動作を実行している間に、制御部21は、次のステップS203及びS204を実行する。
(Step S202)
In step S202, the
なお、上記学習装置1は、許可範囲309内に侵入物が侵入したか否かを監視し、許可範囲309内に侵入物が侵入したと判定した場合に、遠隔操作の実施を一時停止する。この際、制御部21は、侵入した侵入物を許可範囲309外に出すためのアナウンスをディスプレイ32に表示させてもよい。また、RC20がスピーカ(不図示)に接続している場合には、当該アナウンスをスピーカから出力してもよい。制御部21は、学習装置1からの指令に応じて、このアナウンスを実施してもよい。
The
(ステップS203)
ステップS203では、制御部21は、表示制御部213として動作し、学習装置1の遠隔操作による動作中であることディスプレイ32に表示させる。本ステップS203は、本発明の「表示ステップ」の一例である。ディスプレイ32の表示制御が完了すると、制御部21は、次のステップS204に処理を進める。
(Step S203)
In step S203, the
ここで、ディスプレイ32に表示させる内容は、学習装置1の遠隔操作による動作中であることに関する内容であれば特に限定されなくてもよい。例えば、制御部21は、「遠隔操作による動作中」又は「遠隔操作による学習中」とディスプレイ32に表示してもよい。また、例えば、制御部21は、制御データを参照することで、学習装置1の遠隔操作による動作の内容をディスプレイ32に表示させてもよい。
Here, the content to be displayed on the
また、例えば、ステップS201において複数件の制御データを受信した場合、制御部21は、ステップS202により実行中の動作の次に実行する動作の内容をディスプレイ32に表示させてもよい。このとき、制御部21は、次に実行する動作の内容と共に、実行中の動作の内容をディスプレイ32に表示させてもよい。
Further, for example, when a plurality of control data are received in step S201, the
また、例えば、制御部21は、ステップS202により実行中の動作が危険な動作又は通常よりも高速での動作である場合に、当該実行中の動作が危険な動作又は高速での動作であることをディスプレイ32に表示させてもよい。実行中の動作が危険な動作であることを示す表示内容は、実施の形態に応じて適宜決定されてよい。例えば、制御部21は、「只今実行中の動作は危険」又は「只今実行中の動作は高速での動作」とディスプレイ32に表示させてもよい。また、例えば、制御部21は、実行中の動作が危険な動作であることを示す表示内容として、ロボットアーム30の周囲にいる者に注意喚起を促すメッセージをディスプレイ32に表示させてもよい。
Further, for example, when the operation being executed in step S202 is a dangerous operation or an operation at a higher speed than usual, the
なお、実行中の動作が危険な動作であるか否かを判定する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部21は、危険な動作を規定した条件に基づいて、ステップS202により実行中の動作が危険な動作であるか否かを判定してもよい。また、例えば、対象の動作が危険であることを示す情報が制御データに含まれていてもよい。この場合、制御部21は、ステップS201で受信した制御データを参照することで、ステップS202により実行中の動作が危険な動作であるか否かを判定することができる。
The method for determining whether or not the operation being executed is a dangerous operation may be appropriately selected depending on the embodiment. For example, the
(ステップS204)
ステップS204では、制御部21は、通知部214として動作し、通信インタフェース24を制御することで、学習装置1の遠隔操作による動作中であることを周辺装置(例えば、ロボット装置5)に通知する。本ステップS204は、本発明の「通知ステップ」の一例である。当該通知が完了すると、制御部21は、次のステップS205に処理を進める。
(Step S204)
In step S204, the
なお、当該通知を受信した周辺装置は、ロボットアームシステム2が学習装置1により遠隔操作されていることを認識することができる。これにより、周辺装置が、ロボットアーム30の遠隔操作による動作を阻害しないようにすることができる。例えば、工場内を移動可能に構成されたロボット装置5が、当該通知を受信したことに応じて、ロボットアーム30の近傍(特に、可動範囲308又は許可範囲309)に近付かないようにすることができる。すなわち、ロボットアーム30の遠隔操作による動作を阻害しないようにするため、遠隔操作中であることに応じた移動制限を設定し、ロボット装置5が、ロボットアーム30の近傍を避けて移動するようにすることができる。
The peripheral device that has received the notification can recognize that the
(ステップS205)
ステップS205では、制御部21は、学習装置1からの遠隔操作が完了したか否かを判定する。本実施形態では、遠隔操作が完了した際に、上記ステップS107により、学習装置1から完了通知が送信される。そのため、制御部21は、完了通知を受信したか否かによって、学習装置1による遠隔操作が完了したか否かを判定する。遠隔操作が完了したと判定した場合、換言すると、学習装置1からの遠隔操作が完了した後、制御部21は、次のステップS206に処理を進める。他方、遠隔操作が完了していないと判定した場合には、制御部21は、ステップS201〜S204の処理を繰り返す。
(Step S205)
In step S205, the
(ステップS206)
ステップS206では、制御部21は、表示制御部213として動作し、学習装置1の遠隔操作による動作が完了したことをディスプレイ32に表示させる。本ステップS206は、本発明の「完了表示ステップ」の一例である。ディスプレイ32に表示させる内容は、学習装置1の遠隔操作による動作が完了したことに関する内容であれば特に限定されなくてもよい。例えば、制御部21は、「遠隔操作終了」又は「遠隔操作による動作は完了しました」とディスプレイ32に表示させてもよい。これにより、ロボットアームシステム2の周囲に存在する作業者に、学習装置1の遠隔操作による動作が完了し、突然動くことはないことを知らせることができる。当該完了表示が完了すると、制御部21は、次のステップS207に処理を進める。
(Step S206)
In step S206, the
(ステップS207)
ステップS207では、制御部21は、通知部214として動作し、通信インタフェース24を制御することで、学習装置1の遠隔操作による動作が完了したことを周辺装置(例えば、ロボット装置5)に通知する。本ステップS207は、本発明の「完了通知ステップ」の一例である。当該通知が完了すると、制御部21は、本動作例に係る処理を終了する。
(Step S207)
In step S207, the
なお、当該通知を受信した周辺装置は、ロボットアームシステム2において学習装置1により遠隔操作が完了したことを認識することができる。これにより、例えば、工場内を移動可能に構成されたロボット装置5が、ロボットアーム30の非動作中には近傍領域(特に、許可範囲309内)に近付いてもよいようにすることができる。すなわち、遠隔操作中であることに応じた移動制限を解除し、ロボット装置5が、ロボットアーム30の近傍を通過してもよいようにすることができる。
The peripheral device that has received the notification can recognize that the remote control has been completed by the
[作用・効果]
以上のように、本実施形態に係る学習装置1は、上記ステップS101により、依頼者からの学習依頼として、機械学習させる対象となる学習対象装置及び当該学習対象装置に獲得させる能力の指定を受け付ける。また、学習装置1は、上記ステップS104及びS105により、学習対象装置(ロボットアームシステム2)を遠隔操作することで、学習依頼で指定された能力の機械学習に利用するための学習データ122を収集する。更に、学習装置1は、上記ステップS108により、収集した学習データ122を利用して、学習依頼で指定された能力を獲得させるようにニューラルネットワーク6の機械学習を実施する。これによって、学習依頼で指定された能力を学習対象装置に実施させるための学習済みのニューラルネットワーク6を構築することができる。また、遠隔地に配置された学習対象装置(ロボットアームシステム2)には、ステップS201及びS202により、ステップS101で指定された能力に関連する動作を実行させるに過ぎず、ステップS108の機械学習の処理は、学習装置1に実行させる。そのため、遠隔地に配置された学習対象装置のマシンパワーが制限されていても、当該学習対象装置に獲得させる能力の機械学習の処理を実施することができる。したがって、本実施形態によれば、遠隔地に配置された装置に新たな能力を適切に追加するための技術的な仕組みを提供することができる。
[Action / Effect]
As described above, the
また、本実施形態に係るロボットアームシステム2は、学習装置1からの遠隔操作の指令に従って動作している間に、上記ステップS203により、当該学習装置1の遠隔操作による動作中であることをディスプレイ32に表示する。本実施形態では、このディスプレイ32の表示を通じて、ロボットアームシステム2の周囲に存在する作業者に、ロボットアーム30が遠隔操作されていることを知らせることができ、これによって、ロボットアーム30の周囲の安全を確保することができる。したがって、本実施形態によれば、遠隔地に配置された学習対象装置を遠隔操作する際に、当該学習対象装置の周囲の安全を確保する仕組みを提供することができる。
Further, while the
なお、上記ステップS203において、制御部21は、学習装置1の遠隔操作による動作の内容をディスプレイ32に表示させてもよい。当該表示を採用することで、ロボットアームシステム2の周囲に存在する作業者に、遠隔操作による動作の内容を知らせることができ、これによって、ロボットアームシステム2の周囲の安全性を高めることができる。
In step S203, the
また、上記ステップS203において、制御部21は、ステップS202により実行中の動作の次に実行する動作の内容をディスプレイ32に表示させてもよい。当該表示を採用することで、ロボットアームシステム2の周囲に存在する作業者に、ロボットアーム30の動作内容を予め知らせることができる。これにより、ロボットアームシステム2の周囲の安全性を高めることができる。
Further, in step S203, the
また、上記ステップS203において、制御部21は、ステップS202により実行中の動作が危険な動作である場合に、当該実行中の動作が危険な動作であることをディスプレイ32に表示させてもよい。当該表示を採用することで、ロボットアームシステム2の周囲に存在する作業者に危険が迫り得ることを明確に知らせることができ、これによって、ロボットアームシステム2の周囲の安全性を高めることができる。
Further, in step S203, when the operation being executed in step S202 is a dangerous operation, the
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
§4 Modifications Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. For example, the following changes can be made. In the following, the same reference numerals will be used for the same components as those in the above embodiment, and the same points as in the above embodiment will be omitted as appropriate. The following modifications can be combined as appropriate.
<4.1>
上記実施形態では、学習対象装置の一例として、ロボットアームシステム2を例示した。しかしながら、学習対象装置の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
<4.1>
In the above embodiment, the
例えば、学習対象装置は、ロボット装置5のような、倉庫内で移動して、荷物の運搬等の作業を行う作業ロボットであってもよい。この場合、学習依頼では、倉庫内で荷物を効率的に運搬する手順を獲得させる能力として指定することができる。また、作業ロボットの移動可能な範囲が可動範囲となり、許可範囲を設定することで、作業ロボットの移動する範囲を制限することができる。
For example, the learning target device may be a work robot such as the
例えば、学習対象装置は、自動運転可能な車両であってもよい。この場合、学習依頼ではテストコースなどを用いて、依頼者は、道路上で自動運転すること自体を車両に獲得させる能力として指定することができるし、自動運転の動作中の一部の機能として自動駐車すること等を車両に獲得させる能力として指定することもできる。この場合、可動範囲を設定するために、車外を撮影するカメラ及び車外の物体を検出するレーザ等のいずれか又は両方の組合せを用いることができる。なお、遠隔操作に依る動作中であることを表示するディスプレイ等の表示部は、車両の外部に取り付けられていてもよいし、テストコースの所定の場所に配置されていてもよい。 For example, the learning target device may be a vehicle capable of autonomous driving. In this case, in the learning request, using a test course or the like, the client can specify the ability to let the vehicle acquire automatic driving on the road itself, and as a part of the function during the automatic driving operation. It can also be specified as the ability to make the vehicle acquire automatic parking and the like. In this case, in order to set the movable range, a combination of either or both of a camera for photographing the outside of the vehicle and a laser for detecting an object outside the vehicle can be used. A display unit such as a display indicating that the vehicle is being operated by remote control may be attached to the outside of the vehicle or may be arranged at a predetermined location on the test course.
なお、学習対象装置には、一台の装置ではなく、複数台の装置が指定されてもよい。例えば、上記ロボットアームシステム2は、ロボットアーム30を複数備えていてもよい。この場合、学習依頼では、複数台の装置が協働して行う作業を獲得させる能力として指定することができる。
In addition, a plurality of devices may be designated as the learning target device instead of one device. For example, the
<4.2>
また、上記実施形態では、図5に示されるとおり、ニューラルネットワーク6として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、ニューラルネットワーク6の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、入力データとして画像を用いる場合、ニューラルネットワーク6には、畳み込み層及びプーリング層を備える畳み込みニューラルネットワークを用いてもよい。また、例えば、入力データとして時系列データを用いる場合、ニューラルネットワーク6には、中間層から入力層等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークが用いられてもよい。なお、ニューラルネットワーク6の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
<4.2>
Further, in the above embodiment, as shown in FIG. 5, a general forward-propagation neural network having a multi-layer structure is used as the
<4.3>
また、上記実施形態では、学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、学習器には、サポートベクターマシン、自己組織化マップ、強化学習により学習を行う学習器等が用いられてもよい。なお、強化学習の手法を用いて機械学習を行う場合には、上記ステップS104の遠隔操作を実施している間に、ステップS108の機械学習の処理を実施してもよい。
<4.3>
Further, in the above embodiment, the learner is configured by a neural network. However, the type of the learner does not have to be limited to the neural network, and may be appropriately selected depending on the embodiment. For example, as the learning device, a support vector machine, a self-organizing map, a learning device that learns by reinforcement learning, or the like may be used. When machine learning is performed using the reinforcement learning method, the machine learning process in step S108 may be performed while the remote control in step S104 is being performed.
<4.4>
また、上記実施形態では、可動範囲308の状況を監視する監視装置の一例として、カメラ31が例示されている。しかしながら、監視装置の種類は、撮影装置に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、監視装置は、1又は複数の赤外線センサで構成された、学習対象装置の動作位置(上記実施形態では、ロボットアーム30の位置)を検出する位置検出システムであってもよい。この場合、学習装置1は、上記ステップS103において、位置検出システムの検出結果を示す情報を状況情報として取得することができる。
<4.4>
Further, in the above embodiment, the
また、上記実施形態では、カメラ31は、RC20に接続されている。そのため、学習装置1は、ステップS101で指定された学習対象装置の遠隔操作に利用する情報(例えば、IPアドレス)を利用して、RC20を介してカメラ31から撮影画像を取得することができる。しかしながら、学習装置1が状況情報を取得する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、カメラ31がネットワーク10に接続可能である場合、学習装置1は、上記ステップS101において、学習対象装置と同様に、カメラ31へのアクセスに利用する情報(例えば、IPアドレス)を取得してもよい。
Further, in the above embodiment, the
なお、ロボットアームシステム2の可動範囲308の監視が不要である場合には、上記学習装置1の処理手順において、上記ステップS102及びS103は省略されてもよい。加えて、学習装置1のソフトウェア構成において、許可範囲設定部111及び状況取得部112は省略されてもよい。また、許可範囲309内の監視が不要な場合、上記学習装置1の処理手順において、遠隔操作を一時停止してから再開するまでの一連の処理は省略されてもよい。
When it is not necessary to monitor the
<4.5>
また、上記実施形態に係る学習装置1は、上記ステップS109により、能力付与データ123を生成する。そして、学習装置1は、上記ステップS110により、学習対象装置であるロボットアームシステム2に能力付与データ123を配信する。しかしながら、能力付与データ123の生成方法及び配信方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
<4.5>
Further, the
例えば、能力付与データ123は、他の情報処理装置又はオペレータにより生成されてよい。この場合、上記学習装置1の処理手順において、ステップS109は省略されてもよい。加えて、学習装置1のソフトウェア構成において、能力付与データ生成部116は省略されてもよい。
For example, the capacity-imparting
また、例えば、能力付与データ123は、CDドライブ、DVDドライブ、フラッシュメモリ等の記憶媒体に格納されてもよい。そして、この能力付与データ123を格納した記憶媒体を依頼者に配布するようにしてもよい。この場合、上記学習装置1の処理手順において、ステップS110は省略されてもよい。加えて、学習装置1のソフトウェア構成において、配信部117は省略されてもよい。
Further, for example, the
なお、このように記憶媒体により能力付与データ123を配布する場合、依頼者は、受け取った記憶媒体から能力付与データ123を適宜読み出して、ロボットアームシステム2のRC20に読み出した能力付与データ123をインストールする。これによって、能力付与データ123をロボットアームシステム2に適用することができる。
When the ability-giving
<4.6>
また、上記実施形態では、学習装置1は、1台のコンピュータにより構成されている。しかしながら、学習装置1は、複数台のコンピュータにより構成されてもよい。この場合、学習装置1の一部のソフトウェアモジュールを各コンピュータに実装してもよい。例えば、学習データ収集部114のみを1台のコンピュータに実装してもよい。そして、機械学習の実施に際して、学習データ収集部114を実装したコンピュータを依頼者に貸し出してもよい。これにより、ステップS104における学習データ122の収集処理のリアルタイム性を高めることができる。
<4.6>
Further, in the above embodiment, the
<4.7>
また、上記ステップS101では、制御部11は、学習依頼として、学習対象装置(ロボットアームシステム2)において遠隔操作を許可するために設定されたパスワードの指定を更に受け付けてもよい。この場合、上記ステップS104では、制御部11は、指定されたパスワードによってロボットアームシステム2において認証を受けた後に、当該ロボットアームシステム2を遠隔操作するようにしてもよい。これにより、ロボットアームシステム2を遠隔操作する際のセキュリティを高めることができる。
<4.7>
Further, in step S101, the
<4.8>
また、上記ステップS101では、制御部11は、学習依頼として、学習対象装置(ロボットアームシステム2)において遠隔操作を許可する時間帯の指定を更に受け付けてもよい。この場合、制御部11は、指定された時間帯にのみ上記ステップS104(ロボットアームシステム2の遠隔操作)を実行するようにしてもよい。これにより、例えば、ロボットアームシステム2を利用しない夜間又は早朝の時間帯に、当該ロボットアームシステム2の機械学習に利用する学習データ122を収集するようにすることができる。そのため、ロボットアームシステム2の利用効率を高めることができる。
<4.8>
Further, in step S101, the
<4.9>
また、上記ステップS101では、制御部11は、学習依頼として、学習対象装置(ロボットアームシステム2)において遠隔操作を許可する学習期間の指定を更に受け付けてもよい。この場合、制御部11は、指定された学習期間内に上記ステップS104(ロボットアームシステム2の遠隔操作)を実行し、指定された学習期間の経過後に、ロボットアームシステム2の遠隔操作に利用した情報(例えば、IPアドレス)を削除するようにしてもよい。
<4.9>
Further, in step S101, the
<4.10>
また、上記実施形態では、学習装置1は、上記ステップS101により学習依頼を受け付けた後、ステップS108において、受け付けた学習依頼で指定された能力を機械学習により獲得させたニューラルネットワーク6を構築するまで、一連の処理を実行する。しかしながら、学習装置1による学習依頼の処理態様は、このような例に限定されなくてもよい。例えば、学習装置1は、学習依頼の破棄を受け付け可能に構成されてもよい。
<4.10>
Further, in the above embodiment, after receiving the learning request in step S101, the
図9は、本変形例に係る学習装置1Aのソフトウェア構成の一例を模式的に例示する。図9に示されるとおり、本変形例に係る学習装置1Aは、制御部11により学習プログラム121を実行することで、学習依頼の破棄を受け付ける破棄受付部118、及び学習依頼を受け付けた場合に、学習依頼の破棄を受け付けるまでに収集した学習データ及び学習対象装置の遠隔操作に利用した情報を含む学習依頼に関する情報を削除するデータ削除部119を更に備えるコンピュータとして構成される。なお、学習装置1Aは、この点を除き、上記学習装置1と同様に構成される。
FIG. 9 schematically illustrates an example of the software configuration of the
次に、図10を用いて、本変形例に係る学習装置1Aの処理手順の一例について説明する。図10は、上記ステップS102〜S108までの処理を実行している間における学習依頼の破棄受付に係る処理手順の一例を例示する。学習装置1Aの制御部11は、上記ステップS101により学習依頼を受け付けた後、ステップS102の処理を開始すると共に、次のステップS301の処理を開始する。
Next, an example of the processing procedure of the
(ステップS301)
ステップS301では、制御部11は、破棄受付部118として動作し、学習依頼の破棄を受け付ける。学習依頼の破棄を所望する依頼者は、ユーザ端末4を操作して、ステップS101で行った学習依頼の破棄の要求を学習装置1に対して行う。上記ステップS108の処理を開始するまでに学習依頼の破棄を受け付けた場合には、制御部11は、次のステップS302に処理を進める。他方、上記ステップS108の処理を開始するまでに学習依頼の破棄を受け付けなかった場合には、制御部11は、次のステップS302の処理を省略し、学習依頼の破棄に係る処理を終了する。
(Step S301)
In step S301, the
(ステップS302)
ステップS302では、制御部11は、データ削除部119として動作し、学習依頼の破棄を受け付けるまでにステップS105により収集した学習データ122及びロボットアームシステム2の遠隔操作に利用した情報(例えば、IPアドレス)を含む学習依頼の関する情報を削除する。学習依頼に関する情報には、ロボットアームシステム2の遠隔操作に利用した情報の他、例えば、ステップS101で指定された学習依頼の内容を示す情報が含まれる。学習依頼に関連する情報の削除が完了すると、制御部11は、当該学習依頼の破棄に係る処理を終了する。本変形例によれば、不要になった機械学習の依頼を破棄することができ、これによって、学習装置のリソースの効率化を図ることができる。
(Step S302)
In step S302, the
<4.11>
また、上記実施形態では、制御部21は、ステップS206により、遠隔操作が完了したことをディスプレイ32に表示している。しかしながら、上記ロボットアームシステム2の処理手順において、当該ステップS206の処理は省略されてもよい。
<4.11>
Further, in the above embodiment, the
また、上記実施形態では、制御部21は、ステップS204及びS207により、ロボットアームシステム2のステータスを周辺装置に通知している。しかしながら、ロボットアームシステム2の処理手順において、当該ステップS204及びS207のうち少なくとも一方は省略されてもよい。ステップS204及びS207の両方を省略する場合には、ロボットアームシステム2のソフトウェア構成において、通知部214は省略されてもよい。
Further, in the above embodiment, the
なお、ステップS203とステップS204とは処理順序が入れ替わってもよい。同様に、ステップS206とステップS207とは処理順序が入れ替わってもよい。 The processing order of step S203 and step S204 may be interchanged. Similarly, the processing order of step S206 and step S207 may be interchanged.
<4.12>
また、上記実施形態では、ロボットアームシステム2のステータスを表示する表示部としてディスプレイ32を利用している。しかしながら、表示部の種類は、ディスプレイに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、図11に示されるとおり、表示部には、表示灯が用いられてもよい。
<4.12>
Further, in the above embodiment, the
図11は、本変形例に係るロボットアームシステム2Bの構成を模式的に例示する。ロボットアームシステム2Bでは、RC20は、外部インタフェース23を介して、表示灯33に接続している。表示灯33は、例えば、LED(light emitting diode)ランプ、ネオンランプ等であってよい。
FIG. 11 schematically illustrates the configuration of the
この場合、上記ステップS203では、制御部21は、第1の表示態様で表示灯33を発光させることで、学習装置1の遠隔操作による動作中であることを表示灯33に表示させてもよい。そして、上記ステップS206では、第1の表示態様とは異なる第2の表示態様で表示灯33を発光させることで、学習装置1の遠隔操作による動作が完了したことを表示灯33に表示させてもよい。
In this case, in step S203, the
なお、表示態様は、色、点滅速度等の視る者の視覚に影響を与える要素により決定される。例えば、上記ステップS203では、制御部21は、第1の表示形態として表示灯33を赤色に発光させてもよい。そして、上記ステップS206では、制御部21は、第2の表示形態として表示灯33を青色に発光させてもよい。これにより、学習対象装置のステータスを表示する表示部を安価に構成することができる。
The display mode is determined by factors that affect the viewer's vision, such as color and blinking speed. For example, in step S203, the
<4.13>
また、上記実施形態では、制御部11は、ステップS105において、センサデータ及び目標データと制御データとを組にすることで、学習データ122を生成している。これらのうち、センサデータは、学習対象装置の状態を示す状態データの一例である。しかしながら、状態データの種類は、センサデータに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。また、学習対象装置の動作を制御する際に、状態データが不要である場合、当該状態データは、学習データから省略されてもよい。上記実施形態では、制御部11は、ステップS105において、目標データと制御データとを組にすることで、学習データ122を生成してもよい。
<4.13>
Further, in the above embodiment, the
1・1A…学習装置、
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
110…学習依頼受付部、111…許可範囲設定部、
112…状況取得部、113…遠隔操作部、
114…学習データ収集部、115…学習処理部、
116…能力付与データ生成部、117…配信部、
118…破棄受付部、119…データ削除部、
121…学習プログラム、122…学習データ、
123…能力付与データ、
2…ロボットアームシステム、
20…RC、
21…制御部、22…記憶部、23…外部インタフェース、
24…通信インタフェース、
211…遠隔操作受付部、212…動作処理部、
213…表示制御部、214…通知部、
221…制御プログラム、
30…ロボットアーム、
301…基台部、302…関節部、
303…リンク部、304…エンドエフェクタ、
308…可動範囲、309…許可範囲、
31…カメラ、32…ディスプレイ、
4…ユーザ端末、5…ロボット装置、
6…ニューラルネットワーク、
61…入力層、62…中間層(隠れ層)、63…出力層
1.1A ... Learning device,
11 ... Control unit, 12 ... Storage unit, 13 ... Communication interface,
14 ... input device, 15 ... output device, 16 ... drive,
110 ... Learning request reception department, 111 ... Permit range setting department,
112 ... Situation acquisition unit, 113 ... Remote control unit,
114 ... Learning data collection unit, 115 ... Learning processing unit,
116 ... Ability granting data generation unit, 117 ... Distribution unit,
118 ... Discard reception department, 119 ... Data deletion department,
121 ... learning program, 122 ... learning data,
123 ... Ability grant data,
2 ... Robot arm system,
20 ... RC,
21 ... Control unit, 22 ... Storage unit, 23 ... External interface,
24 ... Communication interface,
211 ... Remote control reception unit, 212 ... Operation processing unit,
213 ... Display control unit, 214 ... Notification unit,
221 ... Control program,
30 ... Robot arm,
301 ... base, 302 ... joints,
303 ... Link part, 304 ... End effector,
308 ... movable range, 309 ... permitted range,
31 ... camera, 32 ... display,
4 ... user terminal, 5 ... robot device,
6 ... Neural network,
61 ... Input layer, 62 ... Intermediate layer (hidden layer), 63 ... Output layer
Claims (7)
表示部と、
制御部と、
前記学習対象装置の周囲に配置された周辺装置と通信を行うように構成された通信部と、
を備え、
前記制御部は、
指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、
受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記周辺装置に対して、前記学習装置の前記遠隔操作による動作中であることを知らせるための通知を前記通信部により送信する通知ステップであって、当該通知は、前記学習対象装置の近傍への接近を制限するように指示する移動制限のコマンドを含む、通知ステップと、
前記学習装置からの前記遠隔操作が完了した後、前記周辺装置に対して、前記遠隔操作による動作が完了したことを知らせるための完了通知を前記通信部により送信する完了通知ステップであって、当該完了通知は、前記移動制限を解除する許可コマンドを含む、完了通知ステップと、
を実行するように構成される、
学習対象装置。 A target that is placed in a remote location with respect to a learning device that performs machine learning to acquire the specified ability in response to a learning request from the client, and that the specified ability is acquired by machine learning of the learning device. It is a learning target device
Display and
Control unit and
A communication unit configured to communicate with peripheral devices arranged around the learning target device, and
With
The control unit
A reception step that receives a remote control command from the learning device instructing the execution of an operation related to the specified ability, and a reception step.
An execution step that executes an operation related to the specified ability according to the received remote control command, and
A display step for displaying on the display unit that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command.
A notification step in which the communication unit transmits a notification to the peripheral device to notify that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command. The notification is a notification step comprising a movement restriction command instructing to restrict access to the vicinity of the learning target device.
A completion notification step in which the communication unit transmits a completion notification for notifying the peripheral device that the operation by the remote operation has been completed after the remote operation from the learning device is completed. The completion notification includes a completion notification step including a permission command for removing the movement restriction, and a completion notification.
Is configured to run,
Learning target device.
請求項1に記載の学習対象装置。 The control unit is configured to further execute a completion display step of displaying on the display unit that the operation by the remote control has been completed after the remote control from the learning device is completed.
The learning target device according to claim 1.
前記制御部は、前記表示ステップにおいて、前記学習装置の前記遠隔操作による動作の内容を前記ディスプレイに表示させる、
請求項1又は2に記載の学習対象装置。 The display unit is a display.
In the display step, the control unit causes the display to display the content of the operation of the learning device by the remote control.
The device to be learned according to claim 1 or 2.
前記受付ステップでは、複数の動作の実行を指示する前記指令を受け付け、
前記表示ステップでは、前記実行ステップにより実行中の動作の次に実行する動作の内容を前記ディスプレイに表示させる、
請求項3に記載の学習対象装置。 The control unit
In the reception step, the command for instructing the execution of a plurality of operations is received, and the reception step receives the command.
In the display step, the content of the operation to be executed next to the operation being executed by the execution step is displayed on the display.
The learning target device according to claim 3.
請求項3又は4に記載の学習対象装置。 When the operation being executed is a dangerous operation, the control unit causes the display to indicate that the operation being executed is a dangerous operation in the display step.
The device to be learned according to claim 3 or 4.
前記制御部は、
前記表示ステップでは、第1の表示態様で前記表示灯を発光させることで、前記学習装置の前記遠隔操作による動作中であること前記表示灯に表示させ、
前記完了表示ステップでは、前記第1の表示態様とは異なる第2の表示態様で前記表示灯を発光させることで、前記遠隔操作による動作が完了したことを前記表示灯に表示させる、
請求項2に記載の学習対象装置。 The display unit is an indicator light.
Before Symbol control section is,
In the display step, by causing the indicator light to emit light in the first display mode, the indicator light indicates that the learning device is being operated by the remote control.
In the completion display step, by causing the indicator light to emit light in a second display mode different from the first display mode, the indicator light indicates that the operation by the remote control has been completed.
The learning target device according to claim 2.
指定された前記能力に関連する動作の実行を指示する遠隔操作の指令を前記学習装置から受け付ける受付ステップと、
受け付けた前記遠隔操作の指令に従って、指定された前記能力に関連する動作を実行する実行ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記学習装置の前記遠隔操作による動作中であることを前記表示部に表示させる表示ステップと、
前記遠隔操作の指令に従って前記動作を実行している間に、前記周辺装置に対して、前記学習装置の前記遠隔操作による動作中であることを知らせるための通知を前記通信部により送信する通知ステップであって、当該通知は、前記学習対象装置の近傍への接近を制限するように指示する移動制限のコマンドを含む、通知ステップと、
前記学習装置からの前記遠隔操作が完了した後、前記周辺装置に対して、前記遠隔操作による動作が完了したことを知らせるための完了通知を前記通信部により送信する完了通知ステップであって、当該完了通知は、前記移動制限を解除する許可コマンドを含む、完了通知ステップと、
を実行する、
動作方法。
A target that is placed in a remote location with respect to a learning device that performs machine learning to acquire the specified ability in response to a learning request from the client, and that the specified ability is acquired by machine learning of the learning device. A learning target device including a display unit and a communication unit configured to communicate with peripheral devices arranged around the learning target device.
A reception step that receives a remote control command from the learning device instructing the execution of an operation related to the specified ability, and a reception step.
An execution step that executes an operation related to the specified ability according to the received remote control command, and
A display step for displaying on the display unit that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command.
A notification step in which the communication unit transmits a notification to the peripheral device to notify that the learning device is being operated by the remote control while the operation is being executed in accordance with the remote control command. The notification is a notification step comprising a movement restriction command instructing to restrict access to the vicinity of the learning target device.
A completion notification step in which the communication unit transmits a completion notification for notifying the peripheral device that the operation by the remote operation has been completed after the remote operation from the learning device is completed. The completion notification includes a completion notification step including a permission command for removing the movement restriction, and a completion notification.
To execute,
How it works.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/008141 WO2018168537A1 (en) | 2017-03-14 | 2018-03-02 | Learning target apparatus and operating method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017048335 | 2017-03-14 | ||
JP2017048335 | 2017-03-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018149670A JP2018149670A (en) | 2018-09-27 |
JP6897593B2 true JP6897593B2 (en) | 2021-06-30 |
Family
ID=63680874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018023614A Active JP6897593B2 (en) | 2017-03-14 | 2018-02-14 | Learning target device and operation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6897593B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6904327B2 (en) * | 2018-11-30 | 2021-07-14 | オムロン株式会社 | Control device, control method, and control program |
JP7402450B2 (en) | 2019-10-09 | 2023-12-21 | Telexistence株式会社 | Robot control device, robot control method, and robot control system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08166809A (en) * | 1994-10-14 | 1996-06-25 | Kobe Steel Ltd | Method for evading interference of plural robots and method for determining order and partial charge of operation |
WO2007005555A2 (en) * | 2005-06-30 | 2007-01-11 | Intuitive Surgical | Indicator for tool state communication in multi-arm telesurgery |
JP2011204145A (en) * | 2010-03-26 | 2011-10-13 | Sony Corp | Moving device, moving method and program |
WO2013074969A1 (en) * | 2011-11-16 | 2013-05-23 | University Of South Florida | Systems and method for communicating robot intentions to human beings |
US9630317B2 (en) * | 2014-04-03 | 2017-04-25 | Brain Corporation | Learning apparatus and methods for control of robotic devices via spoofing |
US10022867B2 (en) * | 2014-11-11 | 2018-07-17 | X Development Llc | Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action |
-
2018
- 2018-02-14 JP JP2018023614A patent/JP6897593B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018149670A (en) | 2018-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6900918B2 (en) | Learning device and learning method | |
US9749596B2 (en) | Systems and methods for automated cloud-based analytics for security and/or surveillance | |
KR102044665B1 (en) | Methods and systems for generating instructions for a robotic system to carry out a task | |
US9399290B2 (en) | Enhancing sensor data by coordinating and/or correlating data attributes | |
US20220171907A1 (en) | Creation of digital twin of the interaction among parts of the physical system | |
JP6897593B2 (en) | Learning target device and operation method | |
CN110223413A (en) | Intelligent polling method, device, computer storage medium and electronic equipment | |
Singh et al. | Wi-Fi surveillance bot with real time audio & video streaming through Android mobile | |
KR102093477B1 (en) | Method and apparatus for managing safety in dangerous zone based on different kind camera | |
Fawzi et al. | Embedded real-time video surveillance system based on multi-sensor and visual tracking | |
US11257355B2 (en) | System and method for preventing false alarms due to display images | |
Singh et al. | IOT-based Wi-Fi surveillance robot with real-time audio and video streaming | |
US20220410391A1 (en) | Sensor-based construction of complex scenes for autonomous machines | |
William et al. | Software Reliability Analysis with Various Metrics using Ensembling Machine Learning Approach | |
Tharmalingam et al. | A surveillance mobile robot based on low-cost embedded computers | |
KR102085168B1 (en) | Method and apparatus for managing safety in dangerous zone based on motion tracking | |
WO2018168537A1 (en) | Learning target apparatus and operating method | |
Rajawat et al. | Iot based theft detection using raspberry pi | |
CN112975989B (en) | Robot safe operation method, equipment and storage medium | |
KR102138006B1 (en) | Method for controlling a security robot, apparatus for supporting the same | |
WO2018168536A1 (en) | Learning apparatus and learning method | |
JP2009065561A (en) | Monitoring camera apparatus, method of controlling the same, and program | |
JP2022549260A (en) | Robot remote control method | |
WO2022124477A1 (en) | Electronic device and control method therefor | |
CN114666476B (en) | Intelligent video recording method, device, equipment and storage medium for robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6897593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |