JP6857332B2 - 演算装置、演算方法、及びそのプログラム - Google Patents
演算装置、演算方法、及びそのプログラム Download PDFInfo
- Publication number
- JP6857332B2 JP6857332B2 JP2018045254A JP2018045254A JP6857332B2 JP 6857332 B2 JP6857332 B2 JP 6857332B2 JP 2018045254 A JP2018045254 A JP 2018045254A JP 2018045254 A JP2018045254 A JP 2018045254A JP 6857332 B2 JP6857332 B2 JP 6857332B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- unit
- input data
- data
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Description
本発明の一側面に係る演算装置は、入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて所定の処理に関する演算を行い、第1出力を出力する第1演算部と、入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて所定の処理に関する演算を行い、第2出力を出力する第2演算部と、第1出力と第2出力とを所定の判定基準で比較した比較結果に基づいて、第1出力、第2出力、又は第1及び第2出力を組み合わせた第3出力を出力する比較部と、を備える。上記構成では、演算装置は、2種類の演算部を柔軟に切り替えて利用することによって、未学習の環境においては第2演算部を用いることで学習中でも作業を継続することができる。他方で、学習済みの環境においては第1演算部を用いることで、例えば実行時の演算時間や出力結果、生成コスト等の点でより優位な結果を得ることができる。なお、「未学習の環境」とは、当該環境においては、第1演算部が所定の基準値以上のパフォーマンスで動作できない環境をいう。例えば、第1演算部の学習が完了していない状況や、第1演算部を再学習している状況、第1演算部の出力が意図したものではない状況等である。他方、「学習済みの環境」とは、当該環境においては、第1演算部が所定の基準値以上のパフォーマンスで動作できる環境をいう。例えば、第1演算部の学習が完了している状況等である。これによって、本発明に係る演算装置は、機械学習によってパラメータが変動するモデルと、パラメータが固定化されたモデルの特徴を相互に補完することができる。
入力データと出力データとの対応関係は例えば、「パラメータ」によって決定される。「パラメータ」とは、モデルに用いられる関数を決定する数値をいう。具体的には、パラメータは、モデルで表現される関数の組み合わせを決定する数値、関数に含まれる変数、及び、関数に含まれる係数等のうち少なくともいずれか1つである。モデルがニューラルネットワークである場合、パラメータは、ノード間の重み係数及びバイアスに該当し、パラメータである重み係数及びバイアスが学習により変動する(最適化される)ことになる。
すなわち、第1演算部113が演算に用いるモデルとは、学習用データを用いた機械学習を行うことでパラメータが変動し、入力データと出力データとの対応関係が変動するモデルである。第1演算部113は、パラメータが機械学習によって変動する第1モデルを用いて入力データに対する所定の処理に関する演算を行うことで、出力データ(第1出力)を出力する。また、第2演算部120が演算に用いるモデルとは、パラメータが固定化されており、入力データと出力データとの対応関係が変動しないモデルである。第2演算部120は、パラメータが固定化された第2モデルを用いて入力データに対する所定の処理に関する演算を行うことで、出力データ(第2出力)を出力する。
なお、「所定の処理」は、例えば多軸ロボットの経路計画や、ピックアンドプレース動作を行うことをタスクとするロボットの制御、検査対象における欠陥の有無の判定、目標物までの距離を計測する計測器のキャリブレーション等である。
なお、このとき並行して第1演算部113にも入力データが入力されてもよい。他方で、学習済みの入力データが入力されている場合、第1演算部113に入力データが入力される。
演算装置10から出力された演算結果に基づいて制御対象が制御された結果や、演算結果に対して結果評価主体が評価した結果は、演算装置10にフィードバックされ(STEP4)、第1演算部113が有するモデルの学習に用いられる。結果評価主体の評価した結果とは、例えば、ロボットの動作等の演算結果が、ユーザ又は評価装置等の予測より短いか長いかなどに基づいて行われる
[第1実施形態]
<1.構成概要>
本実施の形態では、本発明の一例として、複数の駆動軸を有する多軸ロボットの経路計画に対して学習を適用し、経路計画の演算時間を削減するとともに、滑らかで再現性の高い経路を生成する構成について説明する。
多軸ロボットの自動的な経路計画の手法として、後述のように、ランダムサンプリング法の一つである確率的ロードマップ法(Rapidly-Exploring Random Tree:RRT)、ロードマップ法の一つである確率的ロードマップ(Probabilistic Road Map:PRM)等がある。これらの手法は、初期姿勢S、目標姿勢G、作業条件Cが与えられたとき、経路計画の演算を行う空間内にランダムに点を配置し、作業条件を満たす点同士を結ぶことにより、経路を生成するものである。図2は、経路計画の演算を行う空間を構成する複数の次元のうち特定の2つの次元を用いて、初期姿勢S、目標姿勢G、作業条件C、点(×で示す)、点を結んで生成された経路(点線または一点鎖線)で示す図である。なお、点が互いに結ばれて形成されることで生成された経路について、スムージング処理に代表される最適化処理をさらに実行してもよい。ここで、経路計画を行う空間とは、例えば、ロボットが有する駆動軸の個数の次元数を有するコンフィギュレーション空間が挙げられる。
上述した手法は、所定の空間内にランダムに点を配置し、配置された複数の点の中から、ロボットが実行する作業の条件に見合った点を抽出し、次いで、抽出された点を互いに接続することで経路を生成するものである。すなわち、コンフィギュレーション空間に配置した点が、図2に示す障害物と干渉する場合には、当該点を削除し、障害物と干渉しない、すなわち作業条件Cを満たす点を互いに接続して、初期姿勢Sから目標姿勢Gまでの経路を生成するものである。このとき、点を配置する空間内をランダムに全探索するよりも、経路の演算に適した空間内の領域を探索する方が、経路計画の演算時間を削減でき、また、滑らかで再現性の高い経路を演算できる点で好ましい。よって、本構成例では、経路演算を行う空間を、経路の演算に適した領域に区分するように学習を行う。
図3を参照してロボット20のハードウェア構成について説明する。ロボット20は、例えば、六軸垂直多関節ロボットである。ロボット20は、図3の例に示すように、台座21と、第1リンク22と、第2リンク23と、第3リンク24と、第4リンク25と、第5リンク26と、第6リンク27と、エンドエフェクタ28とを備える。
次に図5を参照して、演算装置10の機能構成について説明する。図5は本実施形態に係る演算装置10の機能構成の一例を示すブロック図である。図5に示すように演算装置10は、学習部110と、第2演算部120と、環境変動認識部130と、切替部140と、比較部150とを有している。なお、本実施形態では一例として、学習部110と、第2演算部120と、環境変動認識部130と、切替部140と、比較部150とが演算装置10において一体化された例を説明するがこれに限定されない。学習部110と、第2演算部120と、環境変動認識部130と、切替部140と、比較部150とはそれぞれ別筐体として構成されてもよい。例えば、学習部110を、その他の構成と別筐体に構成すると、ある作業を行わせるための演算処理を行う第2演算部120に、同じ作業を行う能力を学習によって獲得する学習部110を後から追加できるように構成できるので好ましい。
状態データベース111に保持される学習データは、後述する第1演算部113や第2演算部120が行った経路計画に関する情報に基づいて構成されたり、また、第1演算部113や第2演算部120が行った経路計画に関する情報に基づいて更新されたりしてよい。さらに、学習データは、当該経路計画で生成された経路に基づいてロボット20が制御された経路の情報に基づいて構成されたり、ロボット20が通過した実際の経路を示す情報に基づいて更新されたりしてよい。ロボット20が制御された経路の情報は、ロボット20のアクチュエータ(モータ)の駆動量(回転量)を所定の間隔で取得することにより生成すればよい。例えば、経路を演算する空間を構成する次元に対応したモータの回転量を、各モータの回転量を測定するエンコーダにより測定し、経路の情報を生成すればよい。このとき、学習データに含まれる点を示す情報は、過去に演算された経路に基づく情報であって、スムージング処理がされた経路に基づく情報であることが好ましい。
なお、第1演算部113が、学習済みモデルによって区分された領域を、経路の演算にどのように利用するかは特に限定されない。例えば、区分された領域の平均の座標を示す点をサンプリングする点としてよい。このとき、区分された領域の平均の座標同士を接続する線分が作業条件を満たすか否かを判別し、作業条件を満たした場合に、入力された初期姿勢および目標姿勢を示す点と当該線分構成する点、との接続の可否を、ダイクストラ法等により判定して、経路を生成してよい。
図10を用いて、本実施形態に係る演算装置10の処理の流れについて説明する。図10は、演算装置10の処理フローの一例を示すフローチャートである。
このように、本実施形態に係る演算装置10によると、学習によって変動するパラメータを用いるモデルによって経路計画を行う第1演算部113と、固定化されたパラメータを用いるモデルによって経路計画を行う第2演算部120とを柔軟に切り替えて利用することができる。これによって、未学習の環境においては第2演算部120を用いることで学習中でも作業を継続することができる。他方で、学習済みの環境においては第1演算部113を用いることで例えば実行時の演算時間や出力結果、生成コスト等の点でより優位な結果を得ることができる。
第1実施形態では、演算装置10がロボットのモーションプランニングに用いられる例について説明した。しかし、演算装置10が適用される装置は、第1実施形態に示した例に限定されず、種々の装置に適用することができる。本実施形態では、ピックアンドプレース動作を行うことをタスクとする、ロボットの制御に適用する例について説明する。
1.ワーク形状を認識して把持する。
2.把持したワークを持ち上げる。
3.ワーク形状に応じた所定の位置へ持ち上げたワークを移動させる。
4.ワーク形状ごとに筒内に積み上げる。
その他の構成や機能は第1実施形態と同様である。
本実施形態では、演算装置10は、検査対象を撮像して生成される入力画像に対して画像解析を行うことで、検査対象における欠陥の有無を判定する欠陥検査システム2において用いられる。
その他の構成や機能は第1実施形態と同様である。
本実施形態では、演算装置10は、目標物までの距離を計測する計測器のキャリブレーションに用いられる。図13は本実施形態に係る演算装置10の機能構成の一例を示す図である。図13を参照して本実施形態に係る演算装置10の機能構成について第1実施形態との差異点を中心に説明する。
なお、この光学信号の波形は状態データベース111に学習データとして格納される。
その他の構成や機能は第1実施形態と同様である。
(付記1)
入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて所定の処理に関する演算を行い、第1出力を出力する第1演算部(113)と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて前記処理に関する演算を行い、第2出力を出力する第2演算部(120)と、
前記第1出力と前記第2出力とを所定の判定基準で比較した結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部(150)と、
を備える演算装置(19)。
(付記2)
前記第1モデルのパラメータを学習し、学習した当該パラメータを前記第1モデルに設定する学習部(110)、
をさらに備える、付記1に記載の演算装置(10)。
(付記3)
前記学習部(110)は、前記第2出力に基づいて前記第1モデルのパラメータを学習し、学習した当該パラメータを前記第1モデルに設定する、
付記2に記載の演算装置(10)。
(付記4)
前記比較部(150)は、
前記学習部(110)において前記第1モデルのパラメータの学習が完了するまで前記第2出力を出力する、
付記3に記載の演算装置(10)。
(付記5)
前記第1演算部(113)が前記入力データに対して学習済みであるか否かを検出し、前記第1及び前記第2演算部(113、120)のうちいずれを利用するかを示す切替情報を生成する環境変動認識部(130)と、
前記切替情報に基づいて、前記第1及び前記第2演算部のうちいずれに前記入力データを入力するかを切り替える切替部(140)と、
をさらに備える付記1乃至4の何れか一項に記載の演算装置(10)。
(付記6)
前記環境変動認識部(130)は、前記第1演算部(113)が前記入力データに対して学習済みであるか否かを、前記第1演算部(113)が前記入力データの演算を行う際の前提条件に変更があるか否かに基づいて判断する、
付記5に記載の演算装置(10)。
(付記7)
ロボット(20)の初期姿勢と目標姿勢とを含む入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて経路計画を行い、当該経路計画において生成された経路を第1出力として出力する第1演算部(113)と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて経路計画を行い、当該経路計画において生成された経路を第2出力として出力する第2演算部(120)と、
前記第1出力と前記第2出力との比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部(150)と、
前記比較部(150)の出力に応じて、前記ロボット(20)を前記初期姿勢から前記目標姿勢へと制御する制御部(15)と、
を備える演算装置(10)。
(付記8)
ロボット(20)が把持する対象物(W)を撮像した画像である入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて画像解析を行い、解析結果を第1出力として出力する第1演算部(113)と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて画像解析を行い、解析結果を第2出力として出力する第2演算部(120)と、
前記第1出力と前記第2出力とを所定の判定基準で比較した比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部(150)と、
前記比較部(150)の出力に応じて、前記対象物(W)を把持するように前記ロボット(20)を制御する制御部(15)と、
を備える演算装置(10)。
(付記9)
検査対象(4)を撮像した画像である入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて画像解析を行い、前記検査対象(4)における欠陥の有無を判定した結果である判定結果を第1出力として出力する第1演算部(113)と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて画像解析を行い、判定結果を第2出力として出力する第2演算部(120)と、
前記第1出力と前記第2出力とを所定の判定基準で比較した比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部(150)と、
前記比較部(150)の出力に応じて、前記検査対象における欠陥の有無を提示する提示部(150、11)と、
を備える演算装置(10)。
(付記10)
距離が既知である目標物までの測距距離を計測するために、光学計測器が発信した光学信号である入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて画像解析を行い、光学信号が示す測距距離と既知である前記目標物までの距離との誤差を第1出力として出力する第1演算部(113)と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて測距距離を算出し、前記目標物までの距離との誤差を第2出力として出力する第2演算部(120)と、
前記第1出力と前記第2出力とを所定の判定基準で比較した比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部(150)と、
前記比較部(150)の出力に応じて、光学信号が示す測距距離と既知である前記目標物までの距離との誤差を提示する提示部(150、11)と、
を備える演算装置(10)。
(付記11)
コンピュータ(10)を、
入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて所定の処理に関する演算を行い、第1出力を出力する手段、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて前記所定の処理に関する演算を行い、第2出力を出力する手段、
前記第1出力と前記第2出力とを所定の判定基準で比較した比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する手段、
として機能させるプログラム。
(付記12)
コンピュータ(10)が、
入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて所定の処理に関する演算を行い、第1出力を出力するステップと、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて前記所定の処理に関する演算を行い、第2出力を出力するステップと、
前記第1出力と前記第2出力とを所定の判定基準で比較した比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力するステップと、
を実行する演算方法。
2 欠陥検査システム
3 ベルトコンベア
4 ワーク
6 撮像視野
8 上位ネットワーク
9 光学計測システム
10 演算装置
11 外部インタフェース
12 記憶部
13 ドライブ
14 記憶媒体
15 制御部
20 ロボット
21 台座
22 第1リンク
23 第2リンク
24 第3リンク
25 第4リンク
26 第5リンク
27 第6リンク
28 エンドエフェクタ
30 撮像装置
40 角度検出装置
50 入力装置
60 出力装置
80 データベース装置
104 ディスプレイ
106 キーボード
108 マウス
110 学習部
111 状態データベース
111 情報状態データベース
112 学習実行部
113 第1演算部
120 第2演算部
130 環境変動認識部
140 切替部
150 比較部
Claims (11)
- 入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて所定の処理に関する演算を行い、第1出力を出力する第1演算部と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて前記処理に関する演算を行い、第2出力を出力する第2演算部と、
前記第1出力と前記第2出力とを所定の判定基準で比較した結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部と、
前記比較した結果に基づいて、前記第1演算部、前記第2演算部、又は、前記第1演算部及び前記第2演算部の双方、のいずれかに、前記入力データの入力先を切り替える切替部と、
を備える演算装置。 - 前記第1モデルのパラメータを学習し、学習した当該パラメータを前記第1モデルに設定する学習部、
をさらに備える、請求項1に記載の演算装置。 - 前記学習部は、前記第2出力に基づいて前記第1モデルのパラメータを学習し、学習した当該パラメータを前記第1モデルに設定する、請求項2に記載の演算装置。
- 前記比較部は、
前記学習部において前記第1モデルのパラメータの学習が完了するまで前記第2出力を出力する、
請求項3に記載の演算装置。 - 前記切替部は、前記入力データに基づいて認識される環境変動、及び、前記比較した結果に基づいて、前記第1演算部、前記第2演算部、又は、前記第1演算部及び前記第2演算部の双方、のいずれかに、前記入力データの入力先を切り替える、
請求項1乃至4の何れか一項に記載の演算装置。 - ロボットの初期姿勢と目標姿勢とを含む入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて経路計画を行い、当該経路計画において生成された経路を第1出力として出力する第1演算部と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて経路計画を行い、当該経路計画において生成された経路を第2出力として出力する第2演算部と、
前記第1出力と前記第2出力との比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部と、
前記比較部の出力に応じて、前記ロボットを前記初期姿勢から前記目標姿勢へと制御する制御部と、
を備える演算装置。 - ロボットが把持する対象物を撮像した画像である入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて画像解析を行い、解析結果を第1出力として出力する第1演算部と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて画像解析を行い、解析結果を第2出力として出力する第2演算部と、
前記第1出力と前記第2出力とを所定の判定基準で比較した結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部と、
前記比較部の出力に応じて、前記対象物を把持するように前記ロボットを制御する制御部と、
を備える演算装置。 - 検査対象を撮像した画像である入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて画像解析を行い、前記検査対象における欠陥の有無を判定した結果である判定結果を第1出力として出力する第1演算部と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて画像解析を行い、判定結果を第2出力として出力する第2演算部と、
前記第1出力と前記第2出力とを所定の判定基準で比較した結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部と、
前記比較部の出力に応じて、前記検査対象における欠陥の有無を提示する提示部と、
を備える演算装置。 - 距離が既知である目標物までの測距距離を計測するために、光学計測器が発信した光学信号である入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて画像解析を行い、光学信号が示す測距距離と既知である前記目標物までの距離との誤差を第1出力として出力する第1演算部と、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて測距距離を算出し、前記目標物までの距離との誤差を第2出力として出力する第2演算部と、
前記第1出力と前記第2出力とを所定の判定基準で比較した結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する比較部と、
前記比較部の出力に応じて、光学信号が示す測距距離と既知である前記目標物までの距離との誤差を提示する提示部と、
を備える演算装置。 - コンピュータを、
入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて所定の処理に関する演算を行い、第1出力を出力する手段、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて前記所定の処理に関する演算を行い、第2出力を出力する手段、
前記第1出力と前記第2出力とを所定の判定基準で比較した比較結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力する手段、
前記比較した結果に基づいて、前記第1モデルを用いて前記演算を行う第1演算部、前記第2モデルを用いて前記演算を行う第2演算部、又は、前記第1演算部及び前記第2演算部の双方、のいずれかに、前記入力データの入力先を切り替える手段と、
として機能させるプログラム。 - コンピュータが、
入力データに対して、学習用データを用いた機械学習を行うことで、入力データと出力データとの対応関係が変動する第1モデルを用いて所定の処理に関する演算を行い、第1出力を出力するステップと、
前記入力データに対して、入力データと出力データとの対応関係が固定化された第2モデルを用いて前記所定の処理に関する演算を行い、第2出力を出力するステップと、
前記第1出力と前記第2出力とを所定の判定基準で比較した結果に基づいて、前記第1出力、前記第2出力、又は前記第1及び前記第2出力を組み合わせた第3出力を出力するステップと、
前記比較した結果に基づいて、前記第1モデルを用いて前記演算を行う第1演算部、前記第2モデルを用いて前記演算を行う第2演算部、又は、前記第1演算部及び前記第2演算部の双方、のいずれかに、前記入力データの入力先を切り替えるステップと、
を実行する演算方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018045254A JP6857332B2 (ja) | 2018-03-13 | 2018-03-13 | 演算装置、演算方法、及びそのプログラム |
US16/976,468 US20210001481A1 (en) | 2018-03-13 | 2019-03-07 | Calculation device, calculation method, and storage medium |
PCT/JP2019/009142 WO2019176737A1 (ja) | 2018-03-13 | 2019-03-07 | 演算装置、演算方法、及びそのプログラム |
CN201980012029.2A CN111684474B (zh) | 2018-03-13 | 2019-03-07 | 运算装置、运算方法及记录介质 |
EP19768087.9A EP3767555A4 (en) | 2018-03-13 | 2019-03-07 | CALCULATION DEVICE, CALCULATION PROCESS, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018045254A JP6857332B2 (ja) | 2018-03-13 | 2018-03-13 | 演算装置、演算方法、及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159767A JP2019159767A (ja) | 2019-09-19 |
JP6857332B2 true JP6857332B2 (ja) | 2021-04-14 |
Family
ID=67908283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018045254A Active JP6857332B2 (ja) | 2018-03-13 | 2018-03-13 | 演算装置、演算方法、及びそのプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210001481A1 (ja) |
EP (1) | EP3767555A4 (ja) |
JP (1) | JP6857332B2 (ja) |
CN (1) | CN111684474B (ja) |
WO (1) | WO2019176737A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7160118B2 (ja) * | 2019-02-08 | 2022-10-25 | 日本電気株式会社 | 制御装置、制御方法、プログラム |
AU2020325084A1 (en) * | 2019-08-02 | 2022-02-24 | Dextrous Robotics, Inc. | Robotic manipulators |
KR102110480B1 (ko) * | 2020-02-03 | 2020-05-13 | 주식회사 이글루시큐리티 | 비지도 학습 기반의 이상 탐지 방법 및 그 시스템 |
JP7375587B2 (ja) * | 2020-02-05 | 2023-11-08 | 株式会社デンソー | 軌道生成装置、多リンクシステム、及び軌道生成方法 |
JP7463777B2 (ja) * | 2020-03-13 | 2024-04-09 | オムロン株式会社 | 制御装置、学習装置、ロボットシステム、および方法 |
KR102522511B1 (ko) * | 2020-09-22 | 2023-04-17 | 한국전기연구원 | 다자유도 로봇 제어방법 및 시스템 |
KR102432281B1 (ko) * | 2020-11-13 | 2022-08-16 | 주식회사 플라잎 | 로봇의 엔드 이펙터의 최적 경로를 도출하는 장치 및 방법 |
JP2022134604A (ja) * | 2021-03-03 | 2022-09-15 | オムロン株式会社 | ロボットセルシステム設計装置、方法、及びプログラム |
US20230050174A1 (en) * | 2021-08-10 | 2023-02-16 | Sean Alexander Cassero | Template robotic control plans |
US20230302636A1 (en) * | 2022-03-23 | 2023-09-28 | Mitsubishi Electric Research Laboratories, Inc. | Systems and Methods for Flexible Robotic Manipulation by Fast Online Load Estimation |
US11845184B2 (en) | 2022-04-18 | 2023-12-19 | Dextrous Robotics, Inc. | System and/or method for grasping objects |
WO2023223570A1 (ja) * | 2022-05-18 | 2023-11-23 | 三菱電機株式会社 | 制御装置、ロボットシステム、学習装置、ロボットの制御方法およびプログラム |
WO2023228556A1 (ja) * | 2022-05-24 | 2023-11-30 | ソニーグループ株式会社 | 情報処理装置、及び情報処理方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2533942B2 (ja) | 1989-03-13 | 1996-09-11 | 株式会社日立製作所 | 知識抽出方法およびプロセス運転支援システム |
JPH05204406A (ja) * | 1992-01-28 | 1993-08-13 | Hitachi Ltd | プロセス制御装置 |
JPH06263346A (ja) * | 1993-03-16 | 1994-09-20 | Hitachi Ltd | エレベータの交通流判定装置 |
JPH07210209A (ja) * | 1994-01-21 | 1995-08-11 | Mazda Motor Corp | 神経回路を用いた制御装置 |
JPH0830327A (ja) * | 1994-07-18 | 1996-02-02 | Fujitsu Ltd | 能動的環境認識システム |
JPH0991036A (ja) * | 1995-09-25 | 1997-04-04 | Toshiba Corp | プラント監視装置 |
JP3324434B2 (ja) * | 1997-03-26 | 2002-09-17 | 株式会社エフ・エフ・シー | 換気制御装置 |
JP2002251597A (ja) * | 2001-02-23 | 2002-09-06 | Yamaha Motor Co Ltd | 最適解探索装置、最適化アルゴリズムによる制御対象の制御装置及び最適解探索プログラム |
JP4427074B2 (ja) * | 2007-06-07 | 2010-03-03 | 株式会社日立製作所 | プラントの制御装置 |
JP2009116770A (ja) * | 2007-11-09 | 2009-05-28 | Sony Corp | データ処理装置および方法、プログラム、並びに記録媒体 |
CN101782976B (zh) * | 2010-01-15 | 2013-04-10 | 南京邮电大学 | 一种云计算环境下机器学习自动选择方法 |
US9080855B2 (en) * | 2011-09-23 | 2015-07-14 | Mitutoyo Corporation | Method utilizing image correlation to determine position measurements in a machine vision system |
WO2016181474A1 (ja) * | 2015-05-11 | 2016-11-17 | 株式会社東芝 | パターン認識装置、パターン認識方法およびプログラム |
KR102172277B1 (ko) * | 2015-11-12 | 2020-10-30 | 딥마인드 테크놀로지스 리미티드 | 듀얼 심층 신경 네트워크 |
JP6661398B2 (ja) * | 2016-02-03 | 2020-03-11 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP6625914B2 (ja) * | 2016-03-17 | 2019-12-25 | ファナック株式会社 | 機械学習装置、レーザ加工システムおよび機械学習方法 |
JP2017174094A (ja) * | 2016-03-23 | 2017-09-28 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2017168865A1 (ja) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
JP6752457B2 (ja) * | 2016-06-02 | 2020-09-09 | 株式会社マーズスピリット | 機械学習システム、装置及び情報処理方法 |
WO2017221856A1 (ja) * | 2016-06-21 | 2017-12-28 | 日本電気株式会社 | 分析装置、分析方法、および記憶媒体 |
CN107704482A (zh) * | 2016-08-09 | 2018-02-16 | 松下知识产权经营株式会社 | 方法、装置以及程序 |
JP6514166B2 (ja) * | 2016-09-16 | 2019-05-15 | ファナック株式会社 | ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 |
JP6810505B2 (ja) * | 2017-09-19 | 2021-01-06 | 富士フイルム株式会社 | 教師データ作成方法及び装置並びに欠陥検査方法及び装置 |
JP6695843B2 (ja) * | 2017-09-25 | 2020-05-20 | ファナック株式会社 | 装置、及びロボットシステム |
-
2018
- 2018-03-13 JP JP2018045254A patent/JP6857332B2/ja active Active
-
2019
- 2019-03-07 US US16/976,468 patent/US20210001481A1/en active Pending
- 2019-03-07 EP EP19768087.9A patent/EP3767555A4/en active Pending
- 2019-03-07 WO PCT/JP2019/009142 patent/WO2019176737A1/ja unknown
- 2019-03-07 CN CN201980012029.2A patent/CN111684474B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP3767555A1 (en) | 2021-01-20 |
JP2019159767A (ja) | 2019-09-19 |
EP3767555A4 (en) | 2021-11-24 |
CN111684474A (zh) | 2020-09-18 |
US20210001481A1 (en) | 2021-01-07 |
WO2019176737A1 (ja) | 2019-09-19 |
CN111684474B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6857332B2 (ja) | 演算装置、演算方法、及びそのプログラム | |
JP7491971B2 (ja) | 物体把持方法、物体把持プログラム、物体把持装置、学習方法、学習プログラムおよび学習装置 | |
JP6951659B2 (ja) | タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法 | |
JP6810087B2 (ja) | 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 | |
JP6586532B2 (ja) | ロボットの把持のための深層機械学習方法および装置 | |
JP6931457B2 (ja) | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム | |
JP6860863B2 (ja) | 経路出力方法 | |
JP6904327B2 (ja) | 制御装置、制御方法、及び制御プログラム | |
JP7128736B2 (ja) | ロボット制御装置、ロボットシステム及びロボット制御方法 | |
JP6640060B2 (ja) | ロボットシステム | |
Yamaguchi et al. | Pouring skills with planning and learning modeled from human demonstrations | |
CN114102585B (zh) | 一种物品抓取规划方法及系统 | |
CN114845844B (zh) | 信息处理装置、工件识别装置及工件取出装置 | |
JP2019089157A (ja) | 把持方法、把持システム及びプログラム | |
JP7460366B2 (ja) | 訓練データ選別装置、ロボットシステム及び訓練データ選別方法 | |
CN109508707B (zh) | 基于单目视觉的机器人稳定抓取物体的抓取点获取方法 | |
WO2021033486A1 (ja) | モデル生成装置、モデル生成方法、制御装置及び制御方法 | |
JP7275759B2 (ja) | 物体検出方法、物体検出装置およびロボットシステム | |
JP2020025992A (ja) | 制御装置、制御方法、およびプログラム | |
WO2021033471A1 (ja) | 制御装置、制御方法、及び制御プログラム | |
JP6456557B1 (ja) | 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム | |
Kamon et al. | Learning visually guided grasping: a test case in sensorimotor learning | |
JP2021035714A (ja) | 制御装置、制御方法、及び制御プログラム | |
RU2745380C1 (ru) | Способ и система захвата объектов с помощью роботизированного устройства | |
WO2021033472A1 (ja) | 制御装置、制御方法、及び制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6857332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |