JP7358808B2 - Robots and machine learning methods - Google Patents
Robots and machine learning methods Download PDFInfo
- Publication number
- JP7358808B2 JP7358808B2 JP2019126806A JP2019126806A JP7358808B2 JP 7358808 B2 JP7358808 B2 JP 7358808B2 JP 2019126806 A JP2019126806 A JP 2019126806A JP 2019126806 A JP2019126806 A JP 2019126806A JP 7358808 B2 JP7358808 B2 JP 7358808B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- observation
- operator
- learning
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 29
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボットおよび機械学習方法に関する。 The present invention relates to robots and machine learning methods.
作業の自動化の一環として、機械学習技術によって学習し、自律制御を行うロボットが知られている。 As part of work automation, robots that learn using machine learning technology and perform autonomous control are known.
このような機械学習を行って自律制御を行うロボットの1つに、人間の操作者による模範操作を学習させた後に自律制御による自動操作を行うロボットが知られている(例えば特許文献1等参照)。
このようなロボットにおいて、人間の操作者による模範操作を正しく模倣する模倣学習を行うためには、操作者が行った操作と、その操作の根拠となる操作者が把握していた観測情報と、を1組の学習データとして正しくロボットに理解させることが重要である。
しかしながら、模倣学習を行う際には、例えば操作者が何を見ているかをロボットに把握させることは難しいため、こうした観測情報は学習データとして入力しづらいという問題が生じていた。
One known robot that performs autonomous control by performing such machine learning is a robot that performs automatic operation by autonomous control after learning a model operation by a human operator (see, for example, Patent Document 1) ).
In order for such a robot to perform imitation learning to correctly imitate a model operation by a human operator, it is necessary to know the operation performed by the operator, the observation information known to the operator that is the basis for that operation, It is important to have the robot understand correctly as a set of learning data.
However, when performing imitation learning, for example, it is difficult to make the robot understand what the operator is looking at, so there has been a problem in that it is difficult to input such observation information as learning data.
本発明は、以上のような問題点に鑑みてなされたものであり、模範操作時に操作者が把握していた観測情報に基づいて模倣学習を行うロボットの提供を目的とする。 The present invention has been made in view of the above-mentioned problems, and aims to provide a robot that performs imitation learning based on observation information grasped by an operator during a model operation.
上述した課題を解決するため、本発明のロボットは、学習を行うときに前記ロボットの周囲の状況を複数観測可能な観測手段と、前記観測手段によって観測された複数の観測結果のうち、前記操作者が前記観測結果を確認した上で行った前記観測手段の切替操作によって何れかの観測結果を選択する選択手段と、を有し、前記学習において、前記切替操作を行った際に前記選択手段によって選択された前記観測結果と、前記選択手段によって前記観測結果が選択された後に入力された前記操作者による当該ロボットの移動操作と、が紐づけられて学習されることを特徴とする。 In order to solve the above-mentioned problems, the robot of the present invention includes observation means that can observe a plurality of situations around the robot when learning, and a robot that selects the operation from among the plurality of observation results observed by the observation means. selection means for selecting one of the observation results by a switching operation of the observation means performed by a person after confirming the observation results, and in the learning , when the switching operation is performed, the selection means The observation result selected by the selection means and the movement operation of the robot by the operator input after the observation result is selected by the selection means are linked and learned.
本発明によれば、模倣学習を効率よく行うことができて、自律制御時における自動操作の精度が向上する。 According to the present invention, imitation learning can be performed efficiently, and the accuracy of automatic operation during autonomous control is improved.
本発明の第1の実施形態として図1に、操作者Pが操作部10を用いてネットワーク9を介して操作するロボット101の制御システム100の全体構成の概念図を示す。
As a first embodiment of the present invention, FIG. 1 shows a conceptual diagram of the overall configuration of a
ロボット101は、観測手段の1つとして設けられた動画像取得手段たる複数のカメラ20a、20bと、指定された対象物Qを摘まみ上げるための移動可能なアーム40と、アーム40を移動可能なようにモータ等で構成された駆動部と、操作部10からの操作指示を受信するための受信部22と、受信部22が受け取った操作指示に基づいてロボット101の各部位を制御するための制御端末たる制御部30と、を有している。
なお、本実施形態においては特に、ロボット101は指定された対象物Qを摘まみ上げるピックアップロボットとして説明を行うが、操作者Pによる模範操作を機械学習し、かかる学習結果をもとに自律操作可能なロボットであればどのような操作を行うためのロボットであっても良い。
The
In this embodiment, the
本実施形態においては、カメラ20aはアーム40に取り付けられ、カメラ20bは作業台近傍に固定して取り付けられており、アーム40と対象物Qとを撮影可能に支持されている。
また、カメラ20a、20bは同型のカメラであって、特にカメラ20a、20bを区別しないときにはカメラ20との呼称を用いる。
特に本実施形態においては観測手段の1つとして撮像部たるカメラについてのみ説明するが、カメラ以外にも、音、可視光以外の電磁波等を観測してモニター11に操作者Pが認識可能な形で表示可能なセンサや検知手段であっても良い。
また、赤外線センサー、レーダー、ライダー等の距離情報を補足可能なセンサや、当該センサの数値情報等のデータをモニター11に表示可能であれば、このようなセンサ類をカメラ20に代えて、あるいは加えても良い。
In this embodiment, the
Further, the
In particular, in this embodiment, only a camera as an imaging unit will be described as one of the observation means, but other than the camera, there are also other devices that can be used to observe sound, electromagnetic waves other than visible light, etc. It may also be a sensor or detection means that can display the information.
Furthermore, if there is a sensor that can supplement distance information such as an infrared sensor, radar, or lidar, or if data such as numerical information of the sensor can be displayed on the
操作部10は、図2に示すようにアーム40の移動方向を指示する複数のボタンを備える移動指示部12と、モニター11に表示される動画像を切替えるため、あるいはカメラ20の視界を移動させるための動画像操作部13と、を有している。
操作部10は、制御部30及びロボット101と無線あるいは有線のネットワーク9を介して通信し、データの送受信を行っている。
具体的には、ロボット101がカメラ20で撮影した動画像がモニター11へと送信され、操作者Pがモニター11を見ながら移動指示部12を用いて行った操作指示がロボット101の受信部22へと送信される。
The
The
Specifically, a moving image taken by the
モニター11は、カメラ20による観測結果たる動画像を表示する。言い換えるとモニター11はカメラ20によって観測された複数の動画像のうち、動画像操作部13によって選択された観測結果の1つを表示する表示手段としての機能を有している。
すなわち本実施形態においては、モニター11は操作者Pが操作するために参照するカメラ20が撮影した画像あるいは動画を表示する動画像表示部としての機能を有している。
すなわち、モニター11に表示される動画像は、操作部10の動画像操作部13によって切り替え可能である。
The
That is, in this embodiment, the
That is, the moving image displayed on the
移動指示部12は、例えば前進指示ボタン12a、右移動指示ボタン12b、後退指示ボタン12c、左移動指示ボタン12d、の4つを備えた移動方向指示部としての機能を有している。なお、本実施形態では移動指示部12は4つの独立したボタンを有するとしたが、ジョイスティックやその他ポインティングデバイス等であっても良い。
また、本実施形態では、受信部22を制御部30とは分けて表記しているが、制御部30の中の一機能として受信部22を設けるとしても良く、かかる構成には限定されるものではない。
また、操作部10がタブレット端末とすれば、モニター11は操作部10内に含まれるような構成であっても良い。
The
Further, in this embodiment, the receiving
Further, if the
制御部30は、図3に示すように、操作者Pが行った模範操作と、模範操作時にモニター11に表示されていた動画像と、を組み合わせて学習するための機械学習制御部31と、機械学習制御部31によって学習されたデータセットに基づいて、自発的にアーム40の制御を行うための自律制御部32と、を有している。
機械学習制御部31は、操作者Pの模範操作すなわち前後左右の何れの方向に移動したかを表す移動操作コマンドと、模範操作が行われたときのモニター表示切替コマンドと、模範操作が行われたときの動画像フレームと、を1組のデータセットとして保存する。
また、本実施形態においては動画像フレームを観測結果として機械学習制御部31に保存されるデータセットとしたが、その他選択されたカメラ20a、20bの識別子等、ロボット101の全体状態情報を観測結果として含んでいても良い。
As shown in FIG. 3, the
The machine
In addition, in this embodiment, the moving image frame is used as a data set to be stored in the machine
さらに、機械学習制御部31は、蓄積された観測結果たる動画像フレームFと、アーム40の移動操作コマンドMと、モニター表示切替コマンドGと、のデータセットを利用し、入力が動画像フレーム、出力が移動操作コマンド及びモニター表示切替コマンドとなるように関数を学習する。
すなわち、機械学習制御部31は、「蓄積された観測結果たる動画像フレームF」と「操作した操作指示たる移動操作コマンドMとモニター表示切替コマンドGと」を一組のデータセットとして記憶・蓄積した関数を学習する。
Furthermore, the machine
That is, the machine
自律制御部32は、機械学習制御部31によって学習された制御関数に基づいて、動画像フレームが入力されたときには、出力となる移動操作コマンドによってロボット101を動作させ、出力されたモニター表示切替コマンドに従い、次の制御関数に入力される動画像フレームを作成するようにカメラ20a、20bの操作を制御する。
ここで具体例を示すために、操作者Pが模範操作においてモニター11に表示されたフレームF1を見て移動操作コマンドM1を送信し、その後モニター表示切替コマンドG1を操作したと機械学習制御部31が学習した場合について考える。
自律制御部32はフレームF1が入力されると、移動操作コマンドM1を出力し、アーム40が移動操作コマンドM1によって所定の位置に移動すると、さらにモニター表示切替コマンドG1を出力して次に得られるフレームF2を取得する。
以下、得られたフレームF2を入力値として、機械学習制御部31のデータセットから移動操作コマンドM2、モニター表示切替コマンドG2、とを出力し、次々と自律制御を行う。
Based on the control function learned by the machine
Here, to show a specific example, it is assumed that the operator P looks at the frame F1 displayed on the
When the frame F1 is input, the
Thereafter, using the obtained frame F2 as an input value, a movement operation command M2 and a monitor display switching command G2 are output from the data set of the machine
さて、従来の機械学習方法においては、どのような入出力をデータセットとして保存するかについて様々な取り組みがなされている。
機械学習に用いるデータセットの一例として例えば入力される動画像フレームと、移動操作コマンドと、をデータセットとして組み合わせる学習方法が挙げられる。
図4には、このようなデータセットの一例として、左側にカメラ20によって撮影した動画像フレームF1’~F4’の視界を実線で示し、カメラ20の視界外に対象物Qがある場合には対象物Qを破線で表示した。また、図4(a)~(c)については左側に表示された動画像フレームF1’~F3’にそれぞれ対応する移動操作コマンドM1’~M3’を右側に表示した。
なお、以降の説明においては図4(a)の左側の状態を撮影状態A、図4(b)の左側の状態を撮影状態B、図4(c)の左側の状態を撮影状態D、とそれぞれ表現する。
Now, in conventional machine learning methods, various efforts have been made regarding what kind of input and output should be saved as a data set.
An example of a data set used for machine learning is a learning method that combines input video frames and movement operation commands as a data set.
In FIG. 4, as an example of such a data set, the field of view of the moving image frames F1' to F4' photographed by the
In the following description, the left side of FIG. 4(a) will be referred to as shooting state A, the left side of FIG. 4(b) will be called shooting state B, and the left side of FIG. 4(c) will be called shooting state D. Express each.
図4(a)、(b)のような撮影状態A、撮影状態Bと、アーム40の移動操作コマンドと、を模倣学習によりそれぞれ紐づけることで学習するような方法について説明する。
操作者Pがまず模範操作として、図4(a)、(b)に示したような動画像フレームF1’、動画像フレームF2’のそれぞれのパターンにおいて、移動操作コマンドM1’、移動操作コマンドM2’のそれぞれの操作を行い、機械学習制御部31に模範操作として学習させる。
このような学習方法によれば、自律制御部32が例えば動画像フレームF1’として図4(a)のように撮影状態Aを検知したときには、カメラ20の中心部に向かうような移動操作コマンドM1’を入力することで、アーム40を適切に対象物Qの位置へと誘導することができる。
同様に、自律制御部32が動画像フレームF2’として図4(b)のように撮影状態Bを検知したときには、カメラ20の右上部に向かうような移動操作コマンドM2’を入力することで、アーム40を適切に対象物Qの位置へと誘導することができる。
A method of learning by linking the photographing state A and photographing state B shown in FIGS. 4A and 4B with the movement operation command of the
First, as a model operation, the operator P executes a movement operation command M1' and a movement operation command M2 in the respective patterns of the moving image frame F1' and the moving image frame F2' as shown in FIGS. 4(a) and 4(b). ' are performed, and the machine
According to such a learning method, when the
Similarly, when the
しかしながら、例えば図4(c)に破線で示すように、対象物Qがカメラの視野外に存在するような撮影状態Cを検知した時には、図4(c)の動画像フレームF3’からは対象物Qを読み取ることは難しい。
操作者Pは、撮影状態Cにおいても、破線で表示された対象物Qを直接視認して操作すればよいから、アーム40をカメラの視覚外右側にある対象物Qへと誘導することができる。すなわち模範操作においては撮影状態Cにあっても移動操作コマンドM3’が出力され、学習データとして蓄積されていってしまう。
However, for example, as shown by the broken line in FIG. 4(c), when a shooting state C is detected in which the object Q exists outside the field of view of the camera, the object Q is detected from the moving image frame F3' in FIG. 4(c). It is difficult to read Object Q.
Even in the photographing state C, the operator P only has to directly view and operate the object Q indicated by the broken line, so that the
このように、実際には操作者Pの判断に影響を与えていないような動画像フレームF3’が、移動操作コマンドM3’と紐づけられてしまうようなことが繰り返されるときの問題点について説明する。
例えば図4(d)に示すような撮影状態Dを動画像フレームF4’として入力された場合に、十分に学習が済んだロボット101は、動画像フレームF3’と誤認し、実際の対象物Qが図4(d)に破線で示すようにカメラの視覚外左側にあるにも拘らず、移動操作コマンドM3’を出力してアーム40を右側へと移動してしまう。
すなわち、撮影状態Dの動画像フレームF4’の観測結果からは最適な移動操作コマンドを予測することが難しい。
In this way, we will explain the problem when the video frame F3', which does not actually affect the judgment of the operator P, is repeatedly associated with the movement operation command M3'. do.
For example, when a photographing state D as shown in FIG. As shown by the broken line in FIG. 4(d), the
That is, it is difficult to predict the optimal movement operation command from the observation results of the video frame F4' in the shooting state D.
あるいは模範操作の最中に、図4(c)、(d)のような学習パターンが多く含まれてしまうと、撮影状態Cと撮影状態Dとの間の切り分けができず、移動操作コマンドが一意には定まらないため、学習に失敗する場合も有り得る。 Alternatively, if many learning patterns such as those shown in FIGS. 4(c) and 4(d) are included during the model operation, it will not be possible to distinguish between the shooting state C and the shooting state D, and the movement operation command will be Since it is not determined uniquely, learning may fail.
このような問題を解決するためには、操作者Pが操作の根拠とした観測情報即ち操作者Pが見ている観測結果と、ロボット101が認識可能な観測結果(上記比較例ではカメラ20の視野)が一致していれば良い。
しかしながら、単に操作者Pが模範操作の際にモニター11のみをみて操作するのでは、図4(c)、(d)において模範操作を行うことが難しく、そもそも学習パターンとして除外されてしまう。
In order to solve such a problem, it is necessary to combine the observation information that the operator P uses as the basis for the operation, that is, the observation results that the operator P is looking at, and the observation results that the
However, if the operator P simply looks at the
本発明は、かかる問題を解決するべく、機械学習制御部31は、動画像フレームF1と、アーム40の移動操作コマンドM1と、に加えて、さらにモニター表示切替コマンドG1とを紐づけて学習を行う。
モニター表示切替コマンドGを用いた学習方法について、図5のフロー図と、図6(a)~(c)に例示するような動作例を用いて説明する。
なお、図6(a)~(c)の左側にはカメラ20aの画像を例示し、図6(a)~(c)の右側にはカメラ20bの画像を例示している。また、それぞれのカメラ20a、20bに対応するモニター表示切替コマンドG1、G2、G3を押した際のモニター11に表示される画面の遷移について、図6(a)~(c)の中央部にそれぞれ矢印で模式的に示している。
操作者Pは、図4(c)に示した撮影状態Cを確認した初期状態において、まず動画像操作部13を用いてモニター表示切替コマンドG1を入力し、モニター11に表示されるカメラ20の視野を適切に設定する(ステップS101)。
かかるモニター表示切替コマンドG1は、例えばカメラ20a、20bの何れかに切り替えるものであっても良いし、カメラ20a、20bの何れかを移動させて図4(a)~(c)に示した各撮影状態のうち、撮影状態Cから撮影状態Bへと移動させるものであっても良い。
また、カメラ20の移動は例えばパン・チルト・ロール等の操作の他、カメラ20の視野の変更を行うような操作であって良い。
何れにせよ、モニター表示切替コマンドG1によって、対象物Qの位置を動画像フレームF2内に収めることができる(ステップS102)。
かかる画像の選択は、例えば図6(a)~(c)に示すようにモニター表示切替コマンドG1、G2、G3を用いてカメラ20aの画像からカメラ20bの画像へと切り替えることによって行うことができる。
本実施形態における操作者Pの模範操作において、既に述べたように図4(c)に示した撮影状態Cすなわち図6(a)の左側に表示したような画像が表示された場合には、操作者Pは、モニター表示切替コマンドG1によって、カメラ20aによって撮影した動画像フレームF1から、カメラ20bによって撮影された動画像フレームF1を選択してモニター11の表示を切り替えた後、移動操作コマンドM1を入力する。
機械学習制御部31は、動画像フレームF1の時に行ったモニター表示切替コマンドG1と、モニター11の表示を異なる動画像フレームF1に切り替えた後の移動操作コマンドM1とを紐づけて学習に用いるデータセットとして保存する(ステップS103)。
このように、「操作者Pが切り替えたかった動画像フレームF1」は「動画像フレームF1の時に行ったモニター表示切替コマンドG1」によって導かれるから、「模範操作を行った際に選択手段によって選択された観測結果」として機能する。
さらに移動操作コマンドM1を入力後には、カメラ20a、20bの撮影する動画像フレームは図6(b)に示すように動画像フレームF2に変化する。かかる動画像フレームF2を新たな観測結果として、移動操作コマンドM2、モニター表示切替コマンドG2についても次々とループして模範操作が終了したと判定されるまで学習を行う(ステップS104)。例えば移動操作コマンドM2の後、図6(c)に示すように動画像フレームF3に変化すると次は動画像フレームF3を新たな観測結果としてループを行う。本実施形態においては、ステップS104の終了判定は、対象物Qをピックアップ出来た時点で1つの学習パターンを終了する。
In order to solve this problem, in the present invention, the machine
A learning method using the monitor display switching command G will be explained using the flow diagram of FIG. 5 and operation examples illustrated in FIGS. 6(a) to 6(c).
Note that the left side of FIGS. 6(a) to 6(c) shows an example of an image of the
In the initial state in which the operator P has confirmed the shooting state C shown in FIG. The field of view is appropriately set (step S101).
Such monitor display switching command G1 may be, for example, to switch to either
Furthermore, the
In any case, the monitor display switching command G1 allows the position of the object Q to be placed within the moving image frame F2 (step S102).
Selection of such an image can be performed, for example, by switching from the image of the
In the model operation of the operator P in this embodiment, as described above, when the photographing state C shown in FIG. 4(c), that is, the image shown on the left side of FIG. 6(a) is displayed, The operator P selects the moving image frame F1 taken by the
The machine
In this way, since "video frame F1 that operator P wanted to switch" is guided by "monitor display switching command G1 performed when video frame F1", It functions as a "observation result".
Further, after inputting the movement operation command M1, the moving image frame photographed by the
言うまでもないことではあるが、これらの学習パターンを1セットとして、複数パターンの学習結果を機械学習制御部31に蓄積・記憶することで、自律制御部32が用いる制御関数を導出することができる。
これらの学習によって得られる制御関数としては、畳み込みニューラルネットワーク、前結合ニューラルネットワーク、線形関数など様々な形態が考えられるが、所謂機械学習に用いられる関数であれば良く、かかる構成に限定されるものではない。
Needless to say, the control function used by the
The control function obtained through this learning can take various forms, such as a convolutional neural network, a precombinant neural network, and a linear function, but any function used in so-called machine learning is sufficient and is limited to such configurations. isn't it.
以上述べたように、本実施形態において機械学習制御部31の行う学習方法は、操作者Pによる操作を行う操作ステップS102と、操作ステップS102において複数の観測手段から得られた観測結果のうち少なくとも1つを選択する選択ステップS101と、選択ステップS101において選択された動画像フレームFと、操作ステップS102において操作者が操作した移動操作コマンドMと、モニター表示切替コマンドGと、を一組としたデータセットとして保存・蓄積する学習ステップS103と、を有している。
かかる構成により、操作者Pによる模範操作に基づく機械学習を効率よくおこなうことができる。
As described above, the learning method performed by the machine
With this configuration, machine learning based on model operations by the operator P can be efficiently performed.
このように模範操作による学習を繰り返し行い、機械学習が終了した後のロボット101の自律制御部32の動作について図7を用いて説明する。
まず、自律制御部32は、初期入力値としてモニター11の動画像フレームF1を確認する(ステップS201)。
自律制御部32は機械学習制御部31に保存された学習データセットと、それに基づく制御関数から、入力された動画像フレームF1に対する出力としてモニター表示切替コマンドG1と移動操作コマンドM1とを出力する(ステップS202)。
自律制御部32は、モニター表示切替コマンドG1と移動操作コマンドM1とによって模範操作で行われた全ての操作が終了したかどうかを確認する(ステップS203)。
自律制御部32は、さらにモニター表示切替コマンドG1によって変更された動画像フレームF2を制御関数への新たな入力値として、モニター表示切替コマンドG2と移動操作コマンドM2とを出力するようにループ処理を順次実行する(ステップS204)。
このようにロボット101は、操作者Pの模範操作を模倣学習することによって、自律的に対象物Qをピックアップする操作を完了することができる。
The operation of the
First, the
The
The
The
In this way, the
本実施形態においては、ロボット101は、操作者Pによる模範操作に基づいて学習を行い、学習の結果に基づいて自律制御を行うロボットであって、学習を行うときにロボット101の周囲の状況を複数観測可能な観測手段たるカメラ20a、20bと、カメラ20a、20bによって観測された複数の観測結果のうち、何れかを選択する選択手段としての動画像操作部13と、を有している。
また、機械学習制御部31は、ロボット101の学習において、操作者Pの移動操作コマンドMと、操作を行った際に動画像操作部13によって選択された動画像フレームF1とを紐づけて学習する。
かかる構成によれば、操作者Pが動画像操作部13によって複数の動画像フレームFの中から、移動操作コマンドMを行うために好適な動画像フレームFを選択することができるので、模倣学習を効率よく行うことができて、自律制御時における自動操作の精度が向上する。
In this embodiment, the
In addition, during learning of the
According to this configuration, the operator P can select a suitable moving image frame F for performing the movement operation command M from among the plurality of moving image frames F using the moving
また本実施形態においては、観測手段として複数のカメラ20a、20bを有し、動画像操作部13は、カメラ20a、20bのうちの1つが撮影した動画像を観測結果として選択可能である。
かかる構成により、操作者Pが動画像操作部13によって複数の動画像フレームFの中から、移動操作コマンドMを行うために好適な動画像フレームFを選択することができるので、模倣学習を効率よく行うことができて、自律制御時における自動操作の精度が向上する。
Further, in this embodiment, a plurality of
With this configuration, the operator P can select a suitable moving image frame F for performing the movement operation command M from among the plurality of moving image frames F using the moving
本発明における第2の実施形態として、アーム40とは独立して駆動可能なカメラ21を用いる場合について図7を用いて説明する。
なお、第2の実施形態において、既に述べた第1の実施形態と同様の構成においては、同一の番号を付して説明を省略する。
As a second embodiment of the present invention, a case where a
Note that, in the second embodiment, the same configurations as those of the first embodiment already described are given the same numbers and the description thereof will be omitted.
カメラ21は、パン・チルト・ロール等の自由な移動が可能なカメラアーム24を有している。
動画像操作部13は、かかるカメラ21のカメラアーム24を操作することによって、カメラ21の視野を任意の位置で調整することが可能である。
操作者Pは、初期に図9(a)に示すような動画像フレームF1を得た場合には、模範操作としてまず動画像操作部13を用いてパン・チルト・ロール等を行った操作内容をモニター表示切替コマンドG1として入力する。
機械学習制御部31は、かかるモニター表示切替コマンドG1によって変化したカメラ21の視野を新たな動画像フレームF2として、操作者Pの次の操作であるモニター表示切替コマンドG2と移動操作コマンドM2とを一組のデータセットとして模範操作として記憶する。
このとき、動画像フレームF2は、操作者Pが模範操作によって見たかった画像であり、「動画像操作部13によって任意に選択された観測結果」である。すなわち、操作者Pの移動操作コマンドM2の根拠となる「操作者Pが把握していた観測情報」が動画像フレームF2である。
機械学習制御部31は、かかるデータセットの組から、制御関数を導出する。自律制御部32は、かかる制御関数に基づいて自律制御を行い、操作者Pが行った模範操作を模倣するように対象物Qを摘まみ取るという一連の動作を完了させる。
The
The moving
When the operator P initially obtains the moving image frame F1 as shown in FIG. is input as the monitor display switching command G1.
The machine
At this time, the moving image frame F2 is an image that the operator P wanted to see through the model operation, and is "an observation result arbitrarily selected by the moving
The machine
第2の実施形態において、ロボット101はアーム40の動作と独立して移動する少なくとも1つのカメラ21を有し、動画像操作部13は、カメラ21が撮影した任意の位置における動画像を観測結果として選択可能である。
このように、撮像部たるカメラ21が1つであっても、任意の位置に移動可能であれば「観測手段を複数有する」のと同様の効果を得られて、かかる複数選択可能な観測結果の中から動画像操作部13によって1つを選択することができる。
かかる構成により、操作者Pが動画像操作部13によって複数の動画像フレームFの中から、移動操作コマンドMを行うために好適な動画像フレームFを選択することができるので、模倣学習を効率よく行うことができて、自律制御時における自動操作の精度が向上する。
In the second embodiment, the
In this way, even if there is only one
With this configuration, the operator P can select a suitable moving image frame F for performing the movement operation command M from among the plurality of moving image frames F using the moving
また、第3の実施形態として、アーム40の先端に取り付けた全天球カメラ23を用いた構成について説明する。
Furthermore, as a third embodiment, a configuration using the
全天球カメラ23は、アーム40の先端に取り付けられて、全天球あるいは半天球画像を撮影可能な撮像部としての機能を有している。
全天球カメラ23はまた、撮影した全天球、半天球動画像のうちの何れの位置についても切り取り、拡大などを動画像操作部13によって選択可能であり、モニター11はかかる選択された全天球画像の一部あるいは全部を表示することができる。
このような全天球カメラ23を用いたときにも、機械学習制御部31は動画像フレームF1が入力されたときに、対応する動画像操作部13によるモニター表示切替コマンドG1と移動操作コマンドM1とを一組のデータセットとして保存・蓄積する。
以下、自律制御部32の動作や、学習の過程については、第1の実施形態あるいは第2の実施形態と説明が重複するため省略する。
The
The
Even when such a
Hereinafter, the operation of the
なお、例えば全天球カメラ23の全天球画像を用いる場合には、図10に示すように、動画像操作部13とモニター11とをヘッドアップディスプレイ(HUD)15として一体化しても良い。
その場合には、例えば操作者Pは、ヘッドアップディスプレイ15とポインティングデバイス16とを装着した状態で、全天球画像の何処かにある対象物Qを摘まみ上げるようなモーションを行うことで簡易に模範操作を終了することができる。
Note that, for example, when using a spherical image from the
In that case, for example, the operator P, while wearing the head-up
さらに、このように全天球カメラ23とヘッドアップディスプレイ15とを用いた場合には、ヘッドアップディスプレイ15の機能として操作者Pの視線の位置あるいは視野が全天球カメラ23の撮影した全天球画像のうちの一部分と常に一致するから、選択手段と表示手段とが一体化できて簡易な構成で模範操作を行うことができる。
Furthermore, when the
以上本発明の好ましい実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、上述の説明で特に限定していない限り、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to such specific embodiments, and unless specifically limited in the above explanation, the present invention described in the claims Various modifications and changes are possible within the scope of the spirit.
例えば、上記実施形態では、ロボット101として、アーム40を駆動させて対象物Qを摘まみ上げる操作を行うロボットについて説明を行ったが、その他の駆動形態を有するロボットについて本発明を適用しても良い。
For example, in the above embodiment, the
また上記実施形態では、観測手段としてカメラについてのみ説明したが、音、可視光以外の電磁波等を観測して、かかる観測結果に基づいて制御を行うロボットであっても良い。
また上記実施形態において用いられた学習方法は、ステップS101~ステップS104に上述した各手段を実行するプログラムあるいは当該プログラムが記憶された各種記憶媒体によって実行されるとしても良い。
Further, in the above embodiment, only a camera was described as an observation means, but a robot that observes sound, electromagnetic waves other than visible light, etc., and performs control based on the observation results may also be used.
Further, the learning method used in the above embodiment may be executed by a program that executes each of the above-mentioned means in steps S101 to S104, or by various storage media in which the program is stored.
本発明の実施の形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施の形態に記載されたものに限定されるものではない。 The effects described in the embodiments of the present invention are merely a list of the most preferred effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. isn't it.
10 操作部
11 動画像表示部(モニター)
12 移動指示部
13 選択手段(動画像操作部)
20 観測手段(カメラ)
20a、20b 観測手段(カメラ)
21 観測手段(カメラ)
22 受信部
23 観測手段(全天球カメラ)
24 カメラアーム
30 制御部(制御端末)
31 学習制御部
32 自律制御部
100 制御システム
101 ロボット
F 観測結果の一例
P 操作者
Q 対象物
10
12
20 Observation means (camera)
20a, 20b Observation means (camera)
21 Observation means (camera)
22 Receiving
24
31
Claims (7)
前記学習を行うときに前記ロボットの周囲の状況を複数観測可能な観測手段と、
前記観測手段によって観測された複数の観測結果のうち、前記操作者が前記観測結果を確認した上で行った前記観測手段の切替操作によって何れかの観測結果を選択する選択手段と、
を有し、
前記学習において、前記切替操作を行った際に前記選択手段によって選択された前記観測結果と、前記選択手段によって前記観測結果が選択された後に入力された前記操作者による当該ロボットの移動操作と、が紐づけられて学習されることを特徴とするロボット。 A robot that learns based on operations by an operator and performs autonomous control based on the results of the learning,
observation means capable of observing multiple situations around the robot when performing the learning;
selection means for selecting one of the plurality of observation results observed by the observation means by a switching operation of the observation means performed by the operator after confirming the observation results ;
has
In the learning , the observation result selected by the selection means when performing the switching operation; the movement operation of the robot by the operator input after the observation result is selected by the selection means; A robot that is characterized by being linked and learned.
前記観測手段は複数の撮像部を有し、
前記選択手段は、前記撮像部のうちの1つが撮影した動画像を前記観測結果として選択可能であることを特徴とするロボット。 The robot according to claim 1,
The observation means has a plurality of imaging units,
The robot is characterized in that the selection means is capable of selecting a moving image photographed by one of the imaging units as the observation result.
前記観測手段は前記ロボットの動作とともに移動する少なくとも1つの撮像部を有し、
前記選択手段は、前記撮像部が撮影した任意の位置における動画像を前記観測結果として選択可能であることを特徴とするロボット。 The robot according to claim 1 or 2,
The observation means has at least one imaging unit that moves with the movement of the robot,
The robot is characterized in that the selection means is capable of selecting a moving image taken by the imaging unit at an arbitrary position as the observation result.
前記ロボットを前記学習の結果に基づいて自律動作させる自律制御部を有し、
前記自律制御部は、前記切替操作を行った際に前記選択手段によって選択された前記観測結果と、前記選択手段によって前記観測結果が選択された後に入力された前記操作者による当該ロボットの前記操作と、を一組としたデータセットに基づいて機械学習を行うことを特徴とするロボット。 The robot according to any one of claims 1 to 3,
an autonomous control unit that causes the robot to operate autonomously based on the learning result;
The autonomous control unit selects the observation result selected by the selection means when performing the switching operation, and the operation of the robot by the operator that is input after the observation result is selected by the selection means. A robot that performs machine learning based on a dataset consisting of a set of and .
前記観測手段は、全天球画像または半天球画像を撮影可能な撮像部を有することを特徴とするロボット。 The robot according to any one of claims 1 to 4,
The robot is characterized in that the observation means includes an imaging unit capable of capturing a spherical image or a hemispherical image.
前記選択手段は、前記全天球画像または前記半天球画像のうち所定の範囲を前記観測結果として選択可能であることを特徴とするロボット。 The robot according to claim 5,
The robot is characterized in that the selection means is capable of selecting a predetermined range of the celestial sphere image or the half-celestial sphere image as the observation result.
前記選択ステップにおいて前記観測結果が選択された後に入力された前記操作者によるロボットの移動操作を行う操作ステップと、
前記選択ステップにおいて選択された前記観測結果と、前記操作ステップにおいて前記操作者が操作した操作指示と、を一組としたデータセットとして保存・蓄積する学習ステップと、
を有することを特徴とする機械学習方法。 a selection step of selecting at least one of the observation results obtained from a plurality of observation means by a switching operation of the observation means performed by an operator after confirming the observation results; ,
an operation step of performing a movement operation of the robot by the operator input after the observation result is selected in the selection step;
a learning step of storing and accumulating the observation results selected in the selection step and the operation instructions operated by the operator in the operation step as a data set;
A machine learning method characterized by having the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019126806A JP7358808B2 (en) | 2019-07-08 | 2019-07-08 | Robots and machine learning methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019126806A JP7358808B2 (en) | 2019-07-08 | 2019-07-08 | Robots and machine learning methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021010984A JP2021010984A (en) | 2021-02-04 |
JP7358808B2 true JP7358808B2 (en) | 2023-10-11 |
Family
ID=74226742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019126806A Active JP7358808B2 (en) | 2019-07-08 | 2019-07-08 | Robots and machine learning methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7358808B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022244076A1 (en) * | 2021-05-17 | 2022-11-24 | ファナック株式会社 | Video discrimination device, video discrimination system, and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014115387A (en) | 2012-12-07 | 2014-06-26 | Toshiba Corp | Remote monitoring device and remote monitoring method |
JP2018161692A (en) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | Information processing system, information processing method and program |
-
2019
- 2019-07-08 JP JP2019126806A patent/JP7358808B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014115387A (en) | 2012-12-07 | 2014-06-26 | Toshiba Corp | Remote monitoring device and remote monitoring method |
JP2018161692A (en) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | Information processing system, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021010984A (en) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10105843B2 (en) | Robot device, remote control method of robot device, and program | |
CN107018292B (en) | Image pickup operation guidance device and image pickup operation guidance method | |
CN107798733B (en) | Display system, portable information device, wearable terminal, and information display method | |
JP6361213B2 (en) | Robot control apparatus, robot, robot system, teaching method, and program | |
US20130076888A1 (en) | Microscope system | |
JP2011186305A (en) | Virtual-slide creating device | |
RU2015145035A (en) | ROBOTIC SURGICAL SYSTEM WITH IMPROVED MANAGEMENT | |
JP5108563B2 (en) | Neural network device, robot camera control device using the same, and neural network program | |
CN101990064A (en) | Control device, operation setting method, and program | |
JP7358808B2 (en) | Robots and machine learning methods | |
JP6300606B2 (en) | Microscope system | |
US8390682B2 (en) | Microscope system and its control method | |
KR20210136858A (en) | Image display apparatus, control method and program | |
JPWO2021199230A5 (en) | REMOTE MONITORING AND CONTROLLER, SYSTEM, METHOD AND PROGRAM | |
JP7146472B2 (en) | Information processing device, information processing method and program | |
US11517395B2 (en) | Control device, control method, and surgical system | |
CN112423942B (en) | Robot system | |
CN108535854A (en) | Microscope | |
CN108885325B (en) | Lens assembly, movable lens operating device, lens driving method and lens driver | |
JP2012076181A (en) | Robot control device, robot, and teaching method of robot control device | |
JP2009098168A (en) | Lens control apparatus | |
JP2019093537A (en) | Deep learning system, deep learning method, and robot | |
JP7546367B2 (en) | CONTROL DEVICE AND MEDICAL OBSERVATION SYSTEM | |
KR20190091870A (en) | Robot control system using motion sensor and VR | |
JPWO2022124398A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7358808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |