WO2019176477A1 - ロボットの制御装置 - Google Patents

ロボットの制御装置 Download PDF

Info

Publication number
WO2019176477A1
WO2019176477A1 PCT/JP2019/006182 JP2019006182W WO2019176477A1 WO 2019176477 A1 WO2019176477 A1 WO 2019176477A1 JP 2019006182 W JP2019006182 W JP 2019006182W WO 2019176477 A1 WO2019176477 A1 WO 2019176477A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
robot
processing
processing unit
basic
Prior art date
Application number
PCT/JP2019/006182
Other languages
English (en)
French (fr)
Inventor
義也 柴田
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to CN201980012348.3A priority Critical patent/CN111699080B/zh
Priority to US16/977,472 priority patent/US11673266B2/en
Priority to EP19768443.4A priority patent/EP3766642A4/en
Publication of WO2019176477A1 publication Critical patent/WO2019176477A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39271Ann artificial neural network, ffw-nn, feedforward neural network

Abstract

本発明は、ロボットの動作を制御する制御装置であって、前記ロボットの第 1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記ロボットに実行させる複数の基本動作から選択された少なくとも一つの前記基本動作と、当該基本動作の動作順序と、を出力とするための第1処理部であって、前記各基本動作には所定の動作パラメータが設定されている、第1処理部と、前記第1処理部からの出力に基づいて、前記ロボットに対して動作指令を行う、指令部と、を備えている。

Description

ロボットの制御装置
 本発明は、ロボットの制御装置、制御方法、制御プログラム、及び処理装置に関する。
 ロボットの制御システムを全て人が作成する場合には、細かいパラメータの調整に時間を要するという問題がある。その一方で、現在の状態から目標状態までのロボットの行動シーケンスの計画を機械学習により決定することが行われている(例えば、特許文献1)。
特開2007-18490号公報
 しかしながら、上記のように機械学習を採用すると、次のような問題があった。例えば、複雑な行動シーケンスの決定をニューラルネットワークなどの一つの大きな学習済みモデルで実現しようとすると、学習に時間がかかるという問題がある。また、学習済みモデルでは、重みなどの内部パラメータを人が見ても、意味を理解できないため、学習結果を部分的に変更したい場合でも、調整することができないという問題もある。
 なお、このような問題は、ロボットの制御装置に限られず、多数の候補の中から所定の処理を行って目的を達成するような処理装置全般に生じうる問題である。
 本発明は、この問題を解決するためになされたものであり、処理の効率化を実現することができる、ロボットの制御装置、制御方法、制御プログラム、及び処理装置を提供することを目的とする。
 本開示は、ロボットの動作を制御する制御装置であって、前記ロボットの第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記ロボットに実行させる複数の基本動作から選択された少なくとも一つの前記基本動作と、当該基本動作の動作順序と、を出力とするための第1処理部であって、前記各基本動作には所定の動作パラメータが設定されている、第1処理部と、前記第1処理部からの出力に基づいて、前記ロボットに対して動作指令を行う、指令部と、を備えている。
 この構成によれば、ロボットの動作を、あらゆる動作から処理部によって出力を得るのではなく、所定の数の基本動作を予め準備し、その中から最適な基本動作とその順序を選択するように第1処理部が処理を行うため、処理のための演算時間を短縮することができる。また、基本動作が予め決められているため、ユーザは、その組み合わせを見ることで、ロボットの動作を容易に知ることができる。さらに、各基本動作には、動作パラメータが設定されているため、基本動作が決定した後に、ユーザが任意で、各基本動作の動作パラメータを変更することができる。
 なお、ロボットの第1の状態、第2の状態とは、ロボット自体の状態のみならず、ロボットによる作業対象の状態も含むこととする。
 上記制御装置においては、前記第1の状態と、前記第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記第1処理部の出力として選択された前記各基本動作の動作パラメータを出力とするための第2処理部をさらに備えることができ、前記指令部は、前記第1処理部及び第2処理部からの出力に基づいて、前記ロボットに対して動作指令を行うことができる。
 この構成により、基本動作の調整、つまり動作パラメータの調整を自動で行うことができるため、第2の状態の達成の精度を向上することができる。
 上記制御装置において、前記第1処理部による出力によっては、前記ロボットを前記第2の状態に所定の基準で遷移できない場合、前記第2処理部による前記動作パラメータの出力を行うように構成することができる。
 上記制御装置においては、所定範囲内で、前記動作パラメータが出力されるように構成することができる。これにより、探索の範囲を狭くすることができ、処理の時間を短くすることができる。
 上記制御装置においては、前記各基本動作の動作パラメータに対する調整を受け付ける受付部をさらに備えることができる。これにより、ユーザが任意に動作パラメータの調整を行うことができる。
 上記制御装置においては、前記第2の状態の指定を受け付ける入力部をさらに備えることができる。
 上記制御装置において、前記第1処理部は、学習済みの学習器によって構成することができる。
 本開示に係るロボットの制御システムは、ロボットと、上述したいずれかの前記ロボットの制御装置と、を備え、前記ロボットが、前記制御装置からの前記動作指令により、前記第1の状態から第2の状態に遷移するように構成されている。
 本開示は、ロボットの動作を制御する制御方法であって、前記ロボットの第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記ロボットに実行させる複数の基本動作から選択された少なくとも一つの前記基本動作と、当該基本動作の動作順序とを出力とするための第1処理部を準備するステップであって、前記各基本動作には所定の動作パラメータが設定されている、ステップと、前記第1処理部に、所定の前記第1状態及び第2状態を入力し、少なくとも一つの前記基本動作と当該基本動作の動作順序を出力するステップと、前記第1処理部からの出力に基づいて、前記ロボットに対して動作指令を行うステップと、を備えている。
 本開示は、ロボットの動作を制御する制御プログラムであって、コンピュータに、前記ロボットの第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記ロボットに実行させる複数の基本動作から選択された少なくとも一つの前記基本動作と、当該基本動作の動作順序とを出力とするための第1処理部を準備するステップであって、前記各基本動作には所定の動作パラメータが設定されている、ステップと、前記第1処理部に、所定の前記第1状態及び第2状態を入力し、少なくとも一つの前記基本動作と当該基本動作の動作順序を出力するステップと、前記第1処理部からの出力に基づいて、前記ロボットに対して動作指令を行うステップと、を実行させる。
 本開示は、処理対象物に対して、処理を行うための処理装置であって、前記処理対象物の第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記処理対象物に対して行われる複数の基本処理から選択された少なくとも一つの前記基本処理と当該基本処理の処理順序を出力とするための第1処理部であって、前記各基本処理には所定の処理パラメータが設定されている、第1処理部と、前記第1処理部からの出力に基づいて、前記処理対象物に対して処理を行う、指令部と、を備えている。
 上記処理装置においては、前記処理対象物の第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記第1処理部の出力として選択された前記各基本処理の処理パラメータを出力とするための第2処理部をさらに備えることができ、前記指令部は、前記第1処理部及び第2処理部からの出力に基づいて、前記処理対象物に対して処理を行うことができる。
 上記処理装置において、前記第1処理部による出力によっては、前記処理対象物を前記第2の状態に所定の基準で遷移できない場合、前記第2処理部による前記処理パラメータの出力を行うように構成することができる。
 上記処理装置においては、所定範囲内で、前記処理パラメータが出力されるように構成することができる。
 上記処理装置において、前記処理を画像処理とすることができ、前記複数の基本処理を、画像に施されるフィルタ処理とすることができる。
 本発明によれば、最適な処理を決定するための処理時間を短くすることができるとともに、各処理の調整を容易に行うことができる。
本発明のロボットの制御装置の一実施形態の概要を示すブロック図である。 ロボットの作業対象の初期状態と目標位置を示す図である。 ロボットの動作を示す図である。 動作プリミティブの例を示す図である。 動作プリミティブに基づく、ロボットの動作例を示す図である。 ロボットの動作の評価方法を示す図である。 動作パラメータの調整を説明する図である。 図1の制御装置のハードウェア構成を示すブロック図である。 図1の制御装置の機能構成を示すブロック図である。 図1の制御装置で用いられるニューラルネットワークの一例を示す図である。 図1の制御装置の学習器の学習の一例を示す図である。 図1の制御装置によるロボットの制御の処理手順の一例を例示するフローチャートである。 動作決定部の他の処理の例を説明する図である。
 以下、本発明に係るロボットの制御装置、制御方法、及び制御プログラムの一実施形態について、図面を参照しつつ説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
 <1.適用例>
 以下、本実施形態に係るロボットの制御装置について説明する。図1に示すように、この制御装置では、所定の目的のために、ロボットを第1の状態から第2の状態に遷移させるにあたって、第1状態と第2状態とを入力とし、ロボットが行う少なくとも一つの基本動作と、その動作順序を出力とするものである。この出力は、学習器により行う。
 例えば、図2に示すように、直方体状の部品Aと、部品Aがはめ込まれる凹部を有する部品Bとが離れて配置されている初期状態から、部品Bの凹部に部品Aがはめ込まれた目的状態までの遷移をロボットにより行う場合を例として説明する。
 ロボット10が、部品Aを初期状態から目的状態まで移動させるには、種々の動作及び動作順序が考えられる。しかし、あらゆる動作を検討すると、計算に時間を要するおそれがある。そこで、本実施形態では、ロボット10が行う動作の候補を動作プリミティブ(基本動作)として予め設定しておき、その中から選択された動作プリミティブを所定の順序で実行することで、部品Aの移動を行うこととする。なお、動作プリミティブとは、ロボット10が行い得る動作を所定数の要素で表現した場合の個々の要素である。例えば、ロボット10が部品を搬送する際に、水平移動した後に、下降移動したとすると、水平移動及び下降移動が、動作プリミティブとなる。
 図3に示すように、本実施形態では、ロボット10が上昇(Up),下降(Down),右側移動(Right),左側移動(Left),傾斜(Tilt)という5つの動作を行うこととし、これら5つの動作のいくつかを組み合わせて、部品Aを部品Bにはめ込むこととする。なお、本実施形態では、説明の便宜上、図面の紙面に垂直な方向の移動は考えないこととする。但し、ロボット10の作業内容によっては、そのような方向の移動も含み得る。
 図4に示すように、本実施形態では、上記5つの動作が、動作プリミティブとして設定され、各動作プリミティブにおいては、移動量がそれぞれ設定されている。これをアクションセットと称することとする。図4の例では、各動作プリミティブについて、3つずつのアクションセットが設定されている。例えば、Right(1)、Right(2)、Right(3)は、それぞれ、右側への移動量が1,2,3であることを意味する。以下では、この移動量(または傾きの角度)を動作パラメータと称することとする。なお、動作パラメータとは、動作プリミティブで表される動作の態様/程度を表すものであり、移動量や角度に限定されない。また、アクションセットとは、動作プリミティブと動作パラメータの組み合わせであり、動作の系列ということができる。さらに、ここでは、アクションセットとして、動作パラメータである移動量が1,2,3のセットを示しているが、これに限定されない。例えば、動作パラメータの組み合わせをP1,P2,P3,,,Pnとすると、これらが等差数列、または等比数列のように規則性を持つ組み合わせにすることができる。
 このように本実施形態では、複数のアクションセットを含め、15種類の動作プリミティブの中から、部品Aの移動に使用する動作プリミティブ及びその順序が決定される。すなわち、部品Aと部品Bの初期状態と目的状態とを入力としたとき、ロボット10が実行する最適な動作プリミティブ及びその動作順序を出力となるように、学習器が動作する。
 ここで、学習器によって最適な出力を行うために、ロボット10の動作を次のように評価する。例えば、図5に示すように、ロボット10の動作のためには、複数の動作プリミティブの組み合わせがある。ここでは、3種類の動作プリミティブの組み合わせを例示する。3つのロボットの動作(1)~(3)の結果、部品Aと部品Bの最終状態は、それぞれ相違しているが、この最終状態を目的状態と比較して、ロボットの動作の評価を行う。
 例えば、部品Aの目的状態における位置のベクトルと、部品Aの最終状態における位置ベクトルとを比較し、その差から評価値を算出する。この例では、位置ベクトルをV(左右位置、上下位置、傾き)とし、目標状態の位置ベクトルをVg,最終状態の位置ベクトルをVeとする。そして、以下の式により評価値を算出する。
 評価値=1-|Ve-Vg|/K
(但し、Kは評価値が0~1となるように正規化するための係数である。したがって、例えば、理想的な状態で評価値が1に近くなり、許容可能なずれ量を超えると評価値が0になるようにKを設定することができる。)
 例えば、上記3つのロボット10の動作(1)~(3)については、図6のように、評価値を算出することができる。この例では、動作(2)による部品Aの最終状態の評価値が最も高い。すなわち、部品Aが目標状態に最も近い位置に配置されている。したがって、学習器は、このような高い評価値を得るための動作プリミティブとその順序を出力するように学習される。
 ところで、上記の動作(2)は、評価値が1.0(満点)ではなく、図6に示すように、部品Aが完全に部品Bの凹部に嵌まっているわけではない。したがって、ロボット10の動作には改善の余地がある。図6では、例えば、動作(2)の最後の動作であるDown(1)の動作パラメータを1から修正することで、部品Aを部品Bの凹部に完全にはめることができると考えられる。そこで、本実施形態では、準備されている動作プリミティブだけでは、目的が完全に達成されない場合には、動作プリミティブの動作パラメータを調整してもよい。
 例えば、図7に示すように、動作(2)の最後の動作プリミティブの動作パラメータを1から1.2に変更すれば、評価値が1.0となり、最終状態を目標状態にすることができる。ここで、動作パラメータの調整方法は、種々の方法があるが、動作プリミティブとその順序が決まった後、動作パラメータをランダムに変更して、最適値を探索したり、学習器を用いて最適値を決定することもできる。
 このような動作パラメータの調整は、ユーザの意思の元に行うことができる。したがって、最適な動作に近い動作プリミティブを得た後、ユーザは、マニュアルで、ロボット動作を調整することができる。
 <2.構成例>
 <2-1.ハードウェア構成>
 まず、本実施形態に係るロボットの制御装置のハードウェア構成について、図8も参照しつつ説明する。図8は、本実施形態に係るロボットの制御装置のハードウェア構成を示すブロック図である。
 <2-1-1.ロボット>
 図3に示すように、ロボット10は、部品を把持可能なアームを有しており、このアームが上下左右に移動するほか、アームが傾くように構成されている。但し、ロボットの構成は特には限定されず、他の動作を行えるように適宜変更可能である。
 <2-1-2.制御装置>
 図8に示すように、本実施形態に係るロボットの制御装置2は、制御部21、記憶部22、通信インタフェース23、入力装置(入力部、受付部)24、出力装置25、表示装置26、外部インタフェース27、及びドライブ28が電気的に接続されたコンピュータである。なお、図1では、通信インタフェース及び外部インタフェースをそれぞれ、「通信I/F」及び「外部I/F」と記載している。
 制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部21で実行される制御プログラム221、動作プリミティブデータ222、入力データ223、出力データ224、学習済みの学習器に関する情報を示す学習結果データ225、学習器を学習させるための学習データ226等を記憶する。その他、制御装置の駆動に必要な各種のデータも記憶することができる。
 制御プログラム221は、ロボットの動作のために、上述した入力を受け付け、これに応じた出力を行うものであり、後述する学習器によって、出力を行う。動作プリミティブデータ222は、上記図4に示すように、ロボット10の種類や要求される作業の種類に応じて予め設定されたものである。入力データ223は、上述した部品の初期状態及び目標状態を含むデータであり、出力データ224は、学習器によって出力されたロボット10の動作を示すデータである。学習結果データ225は、学習済みの学習器の設定を行うためのデータである。また、学習データ226は、現在の学習器の学習に用いたデータである。なお、学習に関する詳細な説明は後述する。
 通信インタフェース23は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。例えば、ロボット10と通信したり、あるいはロボット10の制御に関する情報を外部に送信するために用いられる。入力装置24は、例えば、マウス、キーボード等の入力を行うための装置であり、入力データ223を入力するほか、ユーザによる各種の指示を入力することができる。出力装置25は、例えば、スピーカ等の出力を行うための装置である。表示装置26は、ディスプレイ等で構成することができ、例えば、学習器による出力の結果などを表示することができる。外部インタフェース27は、USB(Universal Serial Bus)ポート等であり、外部装置と接続するためのインタフェースである。
 ドライブ28は、例えば、CD(Compact Disk)ドライブ、DVD(Digital Versatile Disk)ドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むための装置である。ドライブ17の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記記憶部22に記憶される各種のデータ221~226の少なくとも一つは、この記憶媒体91に記憶されていてもよい。また、入力データ223、出力データ224は、制御部21のRAMに記憶させることもできる。
 記憶媒体91は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、このプログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。この制御装置2は、この記憶媒体91から、上記各種のデータ221~226を取得してもよい。
 ここで、図8では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
 なお、制御装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部21は、複数のプロセッサを含んでもよい。制御装置2は、複数台の情報処理装置で構成されてもよい。また、制御装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のデスクトップPC(Personal Computer)、タブレットPC等が用いられてもよい。
 <2-2.制御装置の機能的構成>
 次に、図8及び図9を参照しつつ、本実施形態に係る制御システムの機能構成の一例を説明する。図9は、制御装置の機能構成を示すブロック図である。
 <2-2-1.概略構成>
 制御装置2の制御部21は、記憶部22に記憶された制御プログラム221をRAMに展開する。そして、制御部21は、RAMに展開されたプログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図9に示すように、本実施形態に係る制御装置2は、動作決定部211、評価部212、及び動作パラメータ決定部213を備えるコンピュータとして機能する。
 <2-2-2.動作決定部>
 動作決定部211では、上述したように、図2に示すような部品の初期状態及び目標状態を入力データとして、入力とする。このような入力は、入力装置24から入力されるが、種々の入力方法がある。例えば、初期状態及び目標状態の座標、位置ベクトルなどを入力してもよいし、予め設定されている初期状態及び目標状態から選択してもよい。あるいは、初期状態及び目標状態の画像を取得し、これを入力することもできる。
 そして、動作決定部211では、このような入力データから、ロボット10の動作を決定するための第1学習器214を備えている。第1学習器214の出力は、少なくとも一つの動作プリミティブ、及び動作順序である。すなわち、この第1学習器214は、予め設定されている複数の動作プリミティブから、上述した評価値が高くなるような動作プリミティブと、その順序を出力するように学習されている。
 このような出力を行う学習器214は、ニューラルネットワークで構成されている。具体的には、図10に示すような、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力から順に、入力層71、中間層(隠れ層)72、及び出力層73を備えている。
 図10では、ニューラルネットワーク7は1層の中間層72を備えており、入力層71の出力が中間層72の入力となり、中間層72の出力が出力層73の入力となっている。ただし、中間層72の数は1層に限られなくてもよく、ニューラルネットワーク7は、中間層72を2層以上備えてもよい。
 各層71~73は、1又は複数のニューロンを備えている。例えば、入力層71のニューロンの数は、入力データの数に応じて設定することができる。中間層72のニューロンの数は実施の形態に応じて適宜設定することができる。また、出力層73も、動作プリミティブの数に応じて設定することができる。
 隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。図4の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。
 各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。制御装置2は、このようなニューラルネットワーク7の入力層71に上記入力データを入力することで、出力層73から最適なロボットの動作を示す出力データを得る。
 なお、このようなニューラルネットワーク7の構成(例えば、ニューラルネットワーク7の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、学習結果データ225に含まれている。制御装置2は、学習結果データ225を参照して、学習済みの学習器の設定を行う。
 また、第1学習器214の学習は、例えば、図11に示すような学習データ226により行われる。つまり、初期状態及び目標状態を入力とし、理想的な動作のための動作プリミティブ及び動作順序を出力とした学習データを用い、これによって誤差伝播法などで学習を行う。
 <2-2-3.評価部>
 評価部(指令部)212は、動作決定部211の出力を評価するものである。例えば、動作決定部211が出力した動作プリミティブ及び動作順序により、部品を目標位置に完全に移動できる場合には、動作決定部211の出力によりロボット10を動作させることができる。但し、上述した図6に示すように、動作決定部211が出力した動作プリミティブ及び動作順序によっては、部品を目標状態にまで完全に移動できない場合もある。この場合には、動作パラメータの調整が必要となる。
 そこで、評価部212は、所定の基準で、動作決定部211の出力が適切であるか否かを判定し、基準を充足する場合には、動作決定部211の出力で動作するように、ロボット10に対して指令を行う。この基準は、例えば、上述した評価値を用いることができ、評価値1.0との差が所定範囲以内であれば、基準を充足すると判断することができる。一方、所定の基準を充足しない場合には、動作パラメータ決定部213において、最適な動作パラメータの決定を行う。このとき、評価部212の決定を表示装置26に表示し、ユーザによって、動作パラメータの調整を行うか否かを決定することもできる。
 動作パラメータ決定部213は、第2学習器215を備えており、この第2学習器215によって、各動作プリミティブの最適な動作パラメータが出力される。第2学習器215は、第1学習器214と同様にニューラルネットワークにより構成することができる。第2学習器215には、種々の入力が可能である。例えば、初期状態、目標状態、第1学習器214で出力された動作プリミティブ、及び決定された動作順序を入力とし、各動作プリミティブの動作パラメータを出力とすることもできる。あるいは、第1学習器214による出力に対応する評価値を入力に加えることもできる。こうして、入力及び出力を設定し、目標状態を達成するための最適な各動作プリミティブの動作パラメータを出力する。
 そして、出力された動作パラメータは、評価部212に送られ、動作パラメータが変更された動作プリミティブ及び動作順序に基づいて、ロボット10に対して動作指令を行う。
 <2-3.制御装置の動作>
 次に、図12を参照しつつ、制御装置2におけるロボットの制御処理の例を説明する。図12は、制御装置の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
 図12に示すように、まず、入力装置24から、部品の初期状態及び目標状態を入力する(ステップS101)。これにより、動作決定部211は、入力に応じた最適な動作プリミティブ及び動作順序を出力する(ステップS102)。次に、評価部212は、動作決定部211が出力した動作プリミティブ及び動作順序によって、目標状態が達成できるか否かを判断する(ステップS103)。すなわち、動作決定部211の出力が所定の基準を充足しているか否かを判断する。そして、所定の基準を充足している場合には(ステップS103のYES)、動作決定部211の出力に基づいて、ロボット10に対し動作指令を行う(ステップS104)。一方、所定の基準を充足していない場合には(ステップS103のNO)、動作パラメータの調整を行う。すなわち、動作パラメータ決定部213において、最適な動作パラメータを決定する(ステップS105)。これに続いて、評価部212は、動作パラメータが変更された動作プリミティブ及び動作順序に基づき、ロボット10に対して動作指令を行う(ステップS106)。
 <3.特徴>
 以上のように、本実施形態によれば、ロボットの動作を、あらゆる動作から学習器によって出力を得るのではなく、所定の数の動作プリミティブを予め準備し、その中から最適な動作プリミティブとその順序を選択するように第1学習器214が学習されているため、学習を短時間で行うことができる。また、動作プリミティブが予め決められているため、ユーザは、その組み合わせを見ることで、ロボットの動作を容易に知ることができる。
 但し、動作決定部211で決定した動作プリミティブ及び動作順序によっても、目標状態を達成できない場合には、各動作プリミティブの動作パラメータを動作パラメータ決定部213において自動的に決定することができる。これにより、目標位置の達成の精度を向上することができる。
 <4.変形例>
 以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
 <1>
 評価部において、動作決定部の出力が所定の基準を充足していないと判断されたとき、評価部212の決定を表示装置26に表示した上で、ユーザによって、動作パラメータを決定することもできる。この場合、ユーザが入力装置24から直接動作パラメータを入力することができる。したがって、ユーザの好みに合わせた動作をロボットにさせることができる。
 <2>
 動作パラメータ決定部213においては、すべての動作プリミティブの動作パラメータを変更する必要はなく、一部の動作プリミティブの動作パラメータのみを変更するようにしてもよい。例えば、最終位置に達する直前の一つまたは複数の動作に係る動作プリミティブの動作パラメータのみを変更することができる。
 <3>
 動作パラメータは、所定の範囲内で設定しておき、動作パラメータ決定部213では、その範囲内で、動作パラメータの調整を行うことができる。
 <4>
 上記実施形態では、動作決定部211において、動作プリミティブとその動作順序を決定しているが、ロボットの作業によっては、基本的な動作プリミティブとその動作順序が既知の場合もある。この場合は、例えば、図13に示すように、基本的なプリミティブと類似の、動作パラメータのみが相違する動作プリミティブの中から、最適な動作プリミティブを決定することもできる。この場合、学習器に対する入力は、上記実施形態と同じにすることができるが、予め準備された動作プリミティブは、図13のように、動作パラメータのみが相違する動作プリミティブとしたり、あるいは動作自体が類似する動作プリミティブとすることができ、この中から、最適な動作プリミティブを学習器によって決定することができる。
 <5>
 上記実施形態で示した動作プリミティブ及び動作パラメータは一例であり、ロボットの種類や作業の種類によって適宜決定することができる。例えば、動作プリミティブとして、回転、把持、押し当て、引っ張りなど、種々の設定を行うことができるが、ロボットの行う作業によって適宜設定することができる。例えば、多指ハンドを有するロボットが組み立て作業を行う場合には、「押し当て」、「引っ張り」などの動作プリミティブが設定される。押し当てとは、ロボットの手をある方向に一定の力で押しつける動作であり、動作パラメータは押しつけ力となる。また、引っ張りとは、ロボットが指を閉じた状態で一定の方向に一定の力で動かす動作であり、動作パラメータは、引張り力となる。さらに、ロボットに筆を把持させて紙に字を書かせる作業を行う場合、筆を一定の力で紙に対して押し付ける「押し付け」、筆を押し付けた状態で前後左右に動かす「移動」、筆を動かしつつ徐々に上昇させる「離脱」などの動作プリミティブが設定される。これらの動作プリミティブを組み合わせることで、手本となる字の線の太さや「はらい」、「はね」などの表現を再現できるような動作を獲得させることもできる。
 <6>
 上記の例では、ニューラルネットワーク7として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、各ニューラルネットワーク7の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク7は、入力層71及び中間層72を畳み込み層及びプーリング層として利用する畳み込みニューラルネットワークであってもよい。また、例えば、各ニューラルネットワーク7は、中間層72から入力層71等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークであってもよい。なお、各ニューラルネットワーク7の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
 <7>
 上記各学習器214,215は、本発明の第1及び第2処理部の一例であるが、その種類は、特には限定されず、ニューラルネットワーク以外に、例えば、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器とすることができる。あるいは、機械学習以外の他の手法を用いることができるが、動作プリミティブ、その順序、動作パラメータを出力するものであれば、本発明の第1処理部または第2処理部に相当する。
 特に、動作パラメータ決定部213については、学習器の代わりに、遺伝的アルゴリズムを用いて、動作パラメータを決定することもできる。以下、その一例について説明する。まず、各動作プリミティブの動作パラメータを遺伝子としてエンコードした個体を作成する。例えば、図5の動作(2)は、(2,2,1)との遺伝子を有する個体とすることができる。そして、このような個体を多数有する初期集団を作成し、各個体の評価値を算出する。この評価値は、図6で示した評価値と同じにすることができる。そして、この評価値に基づいて、集団に対し、個体の削除、個体間の交配、遺伝子の突然変異などを繰り返し、数世代後に集団の中から、最も高い評価値を得た個体を選択し、その遺伝子に係る動作パラメータを、動作パラメータ決定部213の出力とすることができる。このような遺伝的アルゴリズムによって出力するものも、本発明の処理部に相当する。
 <8>
 上記実施形態では、制御装置2に動作決定部211、評価部212、及び動作パラメータ決定部213を設けているが、動作決定部211及び評価部212によって、本発明の制御装置を構成することもできる。例えば、アクションセットを多数有する動作プリミティブを多数設定した場合には、動作パラメータ決定部213を設けないようにすることもできる。この場合、評価部212は、動作プリミティブの評価を行わず、単に、ロボット10に対して指令を行う指令部として機能する。
 <9>
 上述した初期状態(第1の状態)及び目標状態(第2の状態)は、ロボットの作業対象の状態を示しているが、これをロボットの状態ともいえる。また、直接的にロボットの状態を初期状態及び目標状態として学習器の入力に用いることもできる。
 <10>
 本発明に係る制御装置は、ロボットの制御装置のみならず、他の制御や処理にも適用することができる。すなわち、処理対象物の第1の状態と、この第1の状態から遷移する第2の状態とを入力とし、この遷移のために処理対象物に対して行われる処理を所定の数の処理の中から選択するようにしてもよい。この点については、上述した動作決定部211の処理と同じである。そして、所定の基準に基づいて、選択された処理の処理パラメータを、上述した動作パラメータ決定部と同様の処理により決定することができる。
 このような処理の例としては、例えば、画像処理を挙げることができる。動作プリミティブに対応する画像処理(基本処理)としては、例えば、ガウスフィルタ、二値化処理、エッジ抽出処理などを挙げることができる。具体的な適用対象としては、例えば、次の例を挙げることができる。
 例えば、CT(Computed Tomography)画像が入力されたときに、骨の部分だけが表示された画像に変換するアプリケーションが考えられる。このような処理を自動的に行わせる場合、人がプログラムを書くと、例えば、画像をある閾値で二値化し、二値化された画像に対して収縮膨張処理を適用し(これによって、ノイズのような細かい領域を消し去る)、収縮膨張処理結果をマスクとして元画像との画像の積(AND)を取るといった、画像処理を組み合わせることになり、これによって所望の画像が得られる。しかし、この際に、二値化処理の閾値や、膨張収縮処理(いわゆるオープニング処理)のフィルタサイズや、収縮膨張回数などのパラメータを適切に調整する必要がある。このようなことを実現しようとすると、画像処理とプログラミングの知識を持った人がプログラムを組み、パラメータ調整を繰り返して処理結果が所望のものになるように試行錯誤を行う必要がある。これに対して、本発明を用いれば、適切な画像処理フィルタ(基本処理)の適用順、および各フィルタのパラメータ(処理パラメータ)を自動決定できるようになる。
10 ロボット
212 評価部(指令部)
214 第1学習器(第1処理部)
215 第2学習器(第2処理部)

Claims (15)

  1.  ロボットの動作を制御する制御装置であって、
     前記ロボットの第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記ロボットに実行させる複数の基本動作から選択された少なくとも一つの前記基本動作と、当該基本動作の動作順序と、を出力とするための第1処理部であって、前記各基本動作には所定の動作パラメータが設定されている、第1処理部と、
     前記第1処理部からの出力に基づいて、前記ロボットに対して動作指令を行う、指令部と、
    を備えている、ロボットの制御装置。
  2.  前記第1の状態と、前記第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記第1処理部の出力として選択された前記各基本動作の動作パラメータを出力とするための第2処理部をさらに備え、
     前記指令部は、前記第1処理部及び第2処理部からの出力に基づいて、前記ロボットに対して動作指令を行う、請求項1に記載のロボットの制御装置。
  3.  前記第1処理部による出力によっては、前記ロボットを前記第2の状態に所定の基準で遷移できない場合、前記第2処理部による前記動作パラメータの出力を行うように構成されている、請求項2に記載のロボットの制御装置。
  4.  所定範囲内で、前記動作パラメータが出力されるように構成されている、請求項2または3に記載のロボットの制御装置。
  5.  前記各基本動作の動作パラメータに対する調整を受け付ける受付部をさらに備えている、請求項1から3のいずれかに記載のロボットの制御装置。
  6.  前記第2の状態の指定を受け付ける入力部をさらに備えている、請求項1から5のいずれかに記載のロボットの制御装置。
  7.  前記第1処理部は、学習済みの学習器によって構成されている、請求項1から6のいずれかに記載のロボットの制御装置。
  8.  ロボットと、
     請求項1から7のいずれかに記載の前記ロボットの制御装置と、
    を備え、
     前記ロボットが、前記制御装置からの前記動作指令により、前記第1の状態から第2の状態に遷移するように構成されている、ロボットの制御システム。
  9.  ロボットの動作を制御する制御方法であって、
     前記ロボットの第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記ロボットに実行させる複数の基本動作から選択された少なくとも一つの前記基本動作と、当該基本動作の動作順序とを出力とするための第1処理部を準備するステップであって、前記各基本動作には所定の動作パラメータが設定されている、ステップと、
     前記第1処理部に、所定の前記第1状態及び第2状態を入力し、少なくとも一つの前記基本動作と当該基本動作の動作順序を出力するステップと、
     前記第1処理部からの出力に基づいて、前記ロボットに対して動作指令を行うステップと、
    を備えている、ロボットの制御方法。
  10.  ロボットの動作を制御する制御プログラムであって、
     コンピュータに、
     前記ロボットの第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記ロボットに実行させる複数の基本動作から選択された少なくとも一つの前記基本動作と、当該基本動作の動作順序とを出力とするための第1処理部を準備するステップであって、前記各基本動作には所定の動作パラメータが設定されている、ステップと、
     前記第1処理部に、所定の前記第1状態及び第2状態を入力し、少なくとも一つの前記基本動作と当該基本動作の動作順序を出力するステップと、
     前記第1処理部からの出力に基づいて、前記ロボットに対して動作指令を行うステップと、
    を実行させる、制御プログラム。
  11.  処理対象物に対して、処理を行うための処理装置であって、
     前記処理対象物の第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記処理対象物に対して行われる複数の基本処理から選択された少なくとも一つの前記基本処理と当該基本処理の処理順序を出力とするための第1処理部であって、前記各基本処理には所定の処理パラメータが設定されている、第1処理部と、
     前記第1処理部からの出力に基づいて、前記処理対象物に対して処理を行う、指令部と、
    を備えている、処理装置。
  12.  前記処理対象物の第1の状態と、前記第1の状態から遷移した第2の状態とを入力とし、前記第1の状態から前記第2の状態への遷移のために、前記第1処理部の出力として選択された前記各基本処理の処理パラメータを出力とするための第2処理部をさらに備え、
     前記指令部は、前記第1処理部及び第2処理部からの出力に基づいて、前記処理対象物に対して処理を行う、請求項11に記載の処理装置。
  13.  前記第1処理部による出力によっては、前記処理対象物を前記第2の状態に所定の基準で遷移できない場合、前記第2処理部による前記処理パラメータの出力を行うように構成されている、請求項12に記載の処理装置。
  14.  所定範囲内で、前記処理パラメータが出力されるように構成されている、請求項12または13に記載の処理装置。
  15.  前記処理は画像処理であり、
     前記複数の基本処理は、画像に施されるフィルタ処理である、請求項11から14のいずれかに記載の処理装置。
PCT/JP2019/006182 2018-03-14 2019-02-20 ロボットの制御装置 WO2019176477A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980012348.3A CN111699080B (zh) 2018-03-14 2019-02-20 机器人的控制装置、系统、方法、存储介质及处理装置
US16/977,472 US11673266B2 (en) 2018-03-14 2019-02-20 Robot control device for issuing motion command to robot on the basis of motion sequence of basic motions
EP19768443.4A EP3766642A4 (en) 2018-03-14 2019-02-20 ROBOT CONTROL DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018047257A JP6933167B2 (ja) 2018-03-14 2018-03-14 ロボットの制御装置
JP2018-047257 2018-03-14

Publications (1)

Publication Number Publication Date
WO2019176477A1 true WO2019176477A1 (ja) 2019-09-19

Family

ID=67907689

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/006182 WO2019176477A1 (ja) 2018-03-14 2019-02-20 ロボットの制御装置

Country Status (5)

Country Link
US (1) US11673266B2 (ja)
EP (1) EP3766642A4 (ja)
JP (1) JP6933167B2 (ja)
CN (1) CN111699080B (ja)
WO (1) WO2019176477A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022022784A1 (de) * 2020-07-28 2022-02-03 ArtiMinds Robotics GmbH Verfahren und system zur bestimmung von optimierten programmparametern für ein roboterprogramm

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210187733A1 (en) * 2018-05-18 2021-06-24 Google Llc Data-efficient hierarchical reinforcement learning
JP6792230B1 (ja) * 2019-12-12 2020-11-25 株式会社エクサウィザーズ 情報処理装置、方法およびプログラム
JP2021094677A (ja) * 2019-12-19 2021-06-24 本田技研工業株式会社 ロボット制御装置、ロボット制御方法、プログラム及び学習モデル

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018490A (ja) 2005-02-23 2007-01-25 Sony Corp 行動制御装置および行動制御方法、並びに、プログラム
JP2008112266A (ja) * 2006-10-30 2008-05-15 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
JP2009066692A (ja) * 2007-09-12 2009-04-02 Advanced Telecommunication Research Institute International 軌道探索装置
WO2017134735A1 (ja) * 2016-02-02 2017-08-10 株式会社日立製作所 ロボットシステム、ロボットの最適化システム、およびロボットの動作計画学習方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61264406A (ja) * 1985-05-20 1986-11-22 Fujitsu Ltd 移動体制御装置
JPS6272004A (ja) * 1985-09-26 1987-04-02 Toshiba Corp ロボツト
US5231693A (en) * 1991-05-09 1993-07-27 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Telerobot control system
JPH10124130A (ja) * 1996-10-15 1998-05-15 Ricoh Co Ltd 組立装置
JP2002283259A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体
JP4941068B2 (ja) * 2007-04-16 2012-05-30 トヨタ自動車株式会社 経路作成方法及び経路作成装置
EP3075496B1 (en) * 2015-04-02 2022-05-04 Honda Research Institute Europe GmbH Method for improving operation of a robot
US9596617B2 (en) * 2015-04-14 2017-03-14 ETAK Systems, LLC Unmanned aerial vehicle-based systems and methods associated with cell sites and cell towers
US20170348854A1 (en) * 2015-12-16 2017-12-07 Mbl Limited Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with containers and electronic minimanipulation libraries
WO2017151926A1 (en) * 2016-03-03 2017-09-08 Google Inc. Deep machine learning methods and apparatus for robotic grasping
JP6430986B2 (ja) * 2016-03-25 2018-11-28 ファナック株式会社 ロボットを用いた位置決め装置
JP6457421B2 (ja) 2016-04-04 2019-01-23 ファナック株式会社 シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法
JP2019516568A (ja) * 2016-05-20 2019-06-20 グーグル エルエルシー 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置
CN106203050A (zh) * 2016-07-22 2016-12-07 北京百度网讯科技有限公司 智能机器人的交互方法及装置
CN106313052B (zh) * 2016-10-20 2019-08-23 机器时代(北京)科技有限公司 机器人编程控制方法及装置
DE102017120218A1 (de) * 2017-09-01 2019-03-07 RobArt GmbH Bewegungsplanung für autonome mobile roboter
US20190184561A1 (en) * 2017-12-15 2019-06-20 The Regents Of The University Of California Machine Learning based Fixed-Time Optimal Path Generation
EP3530418A1 (de) * 2018-02-21 2019-08-28 Siemens Aktiengesellschaft Verfahren und vorrichtung zum bestimmen eines optimierten bewegungsablaufs einer robotereinrichtung
US11213947B2 (en) * 2019-06-27 2022-01-04 Intel Corporation Apparatus and methods for object manipulation via action sequence optimization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018490A (ja) 2005-02-23 2007-01-25 Sony Corp 行動制御装置および行動制御方法、並びに、プログラム
JP2008112266A (ja) * 2006-10-30 2008-05-15 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
JP2009066692A (ja) * 2007-09-12 2009-04-02 Advanced Telecommunication Research Institute International 軌道探索装置
WO2017134735A1 (ja) * 2016-02-02 2017-08-10 株式会社日立製作所 ロボットシステム、ロボットの最適化システム、およびロボットの動作計画学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022022784A1 (de) * 2020-07-28 2022-02-03 ArtiMinds Robotics GmbH Verfahren und system zur bestimmung von optimierten programmparametern für ein roboterprogramm

Also Published As

Publication number Publication date
CN111699080B (zh) 2023-09-19
EP3766642A4 (en) 2022-02-23
US20210046649A1 (en) 2021-02-18
JP2019155554A (ja) 2019-09-19
EP3766642A1 (en) 2021-01-20
CN111699080A (zh) 2020-09-22
JP6933167B2 (ja) 2021-09-08
US11673266B2 (en) 2023-06-13

Similar Documents

Publication Publication Date Title
WO2019176477A1 (ja) ロボットの制御装置
WO2019176478A1 (ja) ロボットの動作制御装置
Siebel et al. Evolutionary reinforcement learning of artificial neural networks
Renner et al. Genetic algorithms in computer aided design
EP1873687A2 (en) Parameter learning method, parameter learning apparatus, pattern classification method, and pattern classification apparatus
JP2018106466A (ja) 制御装置及び制御方法
US20210110215A1 (en) Information processing device, information processing method, and computer-readable recording medium recording information processing program
WO2021132099A1 (ja) 学習支援装置、学習装置、学習支援方法及び学習支援プログラム
WO2021221657A1 (en) Generative nonlinear human shape models
CN111684475A (zh) 学习支援装置
Habib et al. Learning human-like facial expressions for android Phillip K. Dick
CN112101513A (zh) 机器学习装置
JP7468619B2 (ja) 学習装置、学習方法、及び、記録媒体
JP6915371B2 (ja) 制御装置、制御プログラム、学習データ作成方法、及び学習方法
KR102423490B1 (ko) 로봇의 파지 방법 및 이를 위한 학습 방법
Hernandez et al. Indoor scene recognition based on weighted voting schemes
Nikolaidis et al. Prototype reduction based on direct weighted pruning
JPH1091676A (ja) 安定化設計方法及び安定化設計プログラムを記録した記録媒体
JP7035912B2 (ja) 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム
JP2021135566A (ja) 推奨動作パラメーター決定方法、およびロボットシステム
Schwan Improving Vision-Based Robotic Grasping for Enhanced Comprehensibility
Hou et al. Stmmi: a self-tuning multi-modal fusion algorithm applied in assist robot interaction
JP2006012093A (ja) 画像内特定領域抽出方法及びこの方法を実行するためのプログラム及び記録媒体
WO2022138545A1 (ja) 機械学習装置、及び機械学習方法
WO2023175870A1 (ja) 機械学習装置、特徴抽出装置、及び制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19768443

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019768443

Country of ref document: EP

Effective date: 20201014