JP2020189389A - 演算装置、制御プログラム、機械学習器及び把持装置 - Google Patents

演算装置、制御プログラム、機械学習器及び把持装置 Download PDF

Info

Publication number
JP2020189389A
JP2020189389A JP2019096927A JP2019096927A JP2020189389A JP 2020189389 A JP2020189389 A JP 2020189389A JP 2019096927 A JP2019096927 A JP 2019096927A JP 2019096927 A JP2019096927 A JP 2019096927A JP 2020189389 A JP2020189389 A JP 2020189389A
Authority
JP
Japan
Prior art keywords
gripped
gripping
grip
work
state variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019096927A
Other languages
English (en)
Other versions
JP7263920B2 (ja
Inventor
高橋 太郎
Taro Takahashi
太郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019096927A priority Critical patent/JP7263920B2/ja
Priority to US16/875,452 priority patent/US11571810B2/en
Priority to CN202010410899.XA priority patent/CN111975763B/zh
Publication of JP2020189389A publication Critical patent/JP2020189389A/ja
Application granted granted Critical
Publication of JP7263920B2 publication Critical patent/JP7263920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37032Generate vibrations, ultrasound
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37433Detected by acoustic emission, microphone
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39531Several different sensors integrated into hand
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

【課題】把持部または把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の動作を意図したように制御するための演算を行うことができる演算装置を提供する。【解決手段】摺動させる動作を伴う作業を行う把持装置の動作を制御するための演算を行う演算装置は、作業中の把持装置の状態を示す状態変数を取得する取得部と、予め取得された状態変数及び状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習した学習済みニューラルネットワークを記憶した記憶部と、記憶部から読み出した学習済みニューラルネットワークに状態変数を入力することによって把持装置の当該作業に係わる各種アクチュエータの目標値を演算する演算部と、把持装置に対して各種アクチュエータの目標値を出力する出力部と、を備える。【選択図】図3

Description

本発明は、把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の動作を制御するための演算を行う演算装置に関する。
マニピュレータの動作をティーチングすることによって所望の動作を行わせるようにするロボットが知られている。例えば特許文献1には、マニピュレータの動作をティーチングすることによって溶接作業を行わせるロボットが開示されている。
特開2017−121649号公報
近年、文字または図形を描く作業や拭き取り作業など、把持部としてのロボットハンドまたはロボットハンドにより把持された把持物を対象物に接触させて摺動させる動作を伴う作業を把持装置としてのロボットに行わせる取り組みがなされている。しかしながら、このような摺動させる動作を伴う作業は、予め作成された動作プログラムに従ってロボットを駆動させても、対象物が変化すると、作業を精度良く実施することができない場合があった。これに対し、予め作成された動作プログラムにフィードバック制御を組み合わせて作業の精度を高めようとすると、演算量が増大するので、作業時間が長くなってしまうという問題があった。
本発明は、以上の背景に鑑みなされたもので、把持装置に、把持部または把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を、精度良くかつ短時間で実施させることができる演算装置を提供することを目的とする。
本発明の一態様に係る演算装置は、把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の動作を制御するための演算を行う演算装置であって、前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記把持装置の状態を示す状態変数として取得する取得部と、予め取得された前記状態変数及び前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習した学習済み機械学習器を記憶した記憶部と、前記記憶部から読み出した前記学習済み機械学習器に前記状態変数を入力することによって前記把持装置における前記作業に係わる各種アクチュエータの目標値を演算する演算部と、前記把持装置に対して前記各種アクチュエータの目標値を出力する出力部と、を備えるものである。
このような構成によれば、学習済み機械学習器によって、各種アクチュエータの目標値を作業環境に応じて最適化されたものになるようリアルタイムに制御することができる。これにより、把持装置に、上記摺動させる動作を伴う作業を精度良く容易にかつ短時間で実施させることができる。
また、前記機械学習器における機械学習の手法が教師あり学習である場合、前記訓練データセットにおける前記判定データは、前記各種アクチュエータの目標値と、イメージセンサ、回転センサ、力センサ、振動センサ、音声マイクのうち少なくとも一つの出力値と、を演算処理した出力を含むものであるとする。このようにすることで、作業を精度良くかつ短時間で実施させることができる。
また、前記作業は、前記把持物としての筆記具により前記対象物に所定の文字または図形を描く作業であってもよい。
また、前記作業は、前記把持物としての拭き取り具で前記対象物の拭き取りを行う作業であってもよい。
本発明の一態様に係る制御プログラムは、把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の動作を制御するための制御プログラムであって、前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記把持装置の状態を示す状態変数として取得するステップと、予め取得された前記状態変数及び前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習した学習済み機械学習器を記憶した記憶部から読み出した前記学習済み機械学習器に前記状態変数を入力することによって前記把持装置における前記作業に係わる各種アクチュエータの目標値を演算するステップと、前記把持装置に対して前記各種アクチュエータの目標値を出力するステップと、をコンピュータに実行させるものである。これによれば、把持装置に、把持部または把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を、精度良くかつ短時間で実施させることができる。
本発明の一態様に係る機械学習器は、把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の各種アクチュエータの目標値を決定する機械学習器であって、予め取得された前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記把持装置の状態を示す状態変数とし、前記状態変数及び前記状態変数に対応した判定データである前記摺動させる動作における前記把持装置の各種アクチュエータの目標値の組み合わせによって構成される訓練データセットを複数入力して学習させるものである。これによれば、把持装置に、把持部または把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を、精度良くかつ短時間で実施させることができる。
本発明の一態様に係る把持装置は、把持部と、前記把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業に係わる各種アクチュエータと、前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記作業を行っているときの把持装置の状態を示す状態変数として取得する取得部と、予め取得された前記状態変数及び前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習した学習済み機械学習器を記憶した記憶部と、前記記憶部から読み出した前記学習済み機械学習器に前記状態変数を入力することによって前記各種アクチュエータの目標値を演算する演算部と、前記各種アクチュエータの目標値を出力する出力部と、を備えるものである。これによれば、把持部または把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を、精度良くかつ短時間で実施することができる。
本発明によれば、把持装置に、把持部または把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を、精度良くかつ短時間で実施させることができる。
本実施形態に係る演算装置を適用するロボットの外観斜視図である。 ロボットの制御構成を示すブロック図である。 演算装置の構成を示すブロック図である。 ロボット100に摺動を伴う作業(文字書き作業)を行わせている状態を示す模式図である。 教師あり学習によって未学習NNに文字書き作業を学習させる方法について具体的に説明する模式図である。 ロボットに拭き取り作業を行わせている状態を示す模式図である。 演算装置の処理の流れを示すフローチャートである。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
本実施形態に係る演算装置は、把持部としてのロボットアームまたは把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業(以下、単に「摺動を伴う作業」という)を行う把持装置としてのロボットの動作を制御するための演算を行うものである。ここで、摺動を伴う動作とは、例えば、把持物としての筆記具により対象物に所定の文字または図形を描く作業や、把持物としての拭き取り具で対象物の拭き取りを行う作業などである。
まず、本実施形態に係る演算装置を適用する把持装置としてのロボットの構成について説明する。
図1は、本実施形態に係る演算装置を適用するロボット100の外観斜視図である。図において、xy平面はロボット100の走行面であり、z軸プラス方向は天頂方向を示す。図1に示すように、ロボット100は、大きく分けて、走行面を移動するための移動機構としての台車部110と、本体部120と、把持機構を構成する、ロボットアーム130及び把持部としてのロボットハンド140と、によって構成される。
台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。ロボット100は、例えば、2つの駆動輪111が同じ方向に同じ回転速度で回転されれば直進し、逆方向に同じ回転速度で回転されれば台車部110の2つの駆動輪111の中央を通る鉛直軸周りに旋回する。
本体部120は、ロボットアーム130を支持すると共に、ユーザインタフェースの一部を成す表示パネル123を有する。表示パネル123は、例えば液晶パネルであり、キャラクターの顔を表示したり、ロボット100に関する情報を提示したりする。表示パネル123は、表示面にタッチパネルを有し、ユーザからの指示入力を受け付けることができる。
本体部120は、ロボットアーム130及びロボットハンド140の動作範囲を含む前方の環境空間を見渡せる位置に環境カメラ121を有する。環境カメラ121は、例えばイメージセンサである撮像素子と画像データ生成部を含み、前方の環境空間を撮像して生成した画像データを出力する。また、本体部120には、コントロールユニット190が設けられている。コントロールユニット190は、後述の制御部とメモリ等を含む。
本体部120に支持されたロボットアーム130は、複数のリンク、例えば図示するように2つのリンクを有し、各リンクを回動可能に連結する関節部131(手首関節、肘関節、肩関節など)に設けられたアクチュエータを駆動させることにより様々な姿勢を取り得る。各関節部131には、減速機構が設けられている。ロボットアーム130の先端部にはハンドカメラ141が配設されている。ハンドカメラ141は、例えばイメージセンサである撮像素子と画像データ生成部を含み、ロボットハンド140の前方空間を撮像して生成した画像データを出力する。また、ロボットアーム130の先端部にはロボットハンド140が接続されており、ロボットハンド140の全体は、ロボットアーム130の先端リンクの伸延方向と平行な旋回軸周りに、アクチュエータの駆動によって旋回し得る。ロボットハンド140は、先端部に設けられたアクチュエータによって駆動される第1フィンガー140aと第2フィンガー140bを備える。第1フィンガー140aと第2フィンガー140bは、点線矢印で示すようにそれぞれが互いに接近するように動作して、対象物を挟持することにより把持を実現する。
なお、ロボット100は、移動機構としての台車部110を備えていない構成であってもよく、少なくとも、把持機構を構成するロボットアーム130及びロボットハンド140と、を備えていればよい。
図2は、ロボット100の制御構成を示すブロック図である。制御部200は、例えばCPUであり、本体部120のコントロールユニット190(図1参照)に格納されている。駆動輪ユニット210は、駆動輪111(図1参照)を駆動するための駆動回路やモータを含み、台車部110(図1参照)に設けられている。
センサユニット220は、移動中に障害物を検出したり、外部からの接触を検出したりする各種センサを含み、台車部110及び本体部120(図1参照)に分散して配置されている。制御部200は、センサユニット220に制御信号を送ることにより、各種センサを駆動してその出力を取得する。
環境カメラ121は、上述のように、ロボットアーム130及びロボットハンド140の動作範囲を含む前方の環境空間を観察するために利用され、制御部200の撮像指示に従って撮像を実行する。環境カメラ121は、生成した画像データを制御部200へ引き渡す。ハンドカメラ141は、上述のように、ロボットハンド140の前方空間を観察するために利用され、制御部200の撮像指示に従って撮像を実行する。ハンドカメラ141は、生成した画像データを制御部200へ引き渡す。
メモリ240は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、ロボット100を制御するためのロボット制御プログラムの他、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
ロボットアーム130は、図1を用いて説明した構造体の他に、各関節部131を駆動するアクチュエータ132と、各関節部131の回転情報を検出する回転センサ134と、各関節部131の操作力(トルク)を検出する力センサ133と、を有する。アクチュエータ132は、例えばサーボモータなどである。回転センサ134は、例えばエンコーダなどである。力センサ133は、例えば、各関節部131のトルクを検出するトルクセンサなどである。
ロボットハンド140は、第1フィンガー140aと第2フィンガー140b(図1参照)を駆動するアクチュエータ142と、ロボットハンド140の操作力を検出する力センサ143と、振動センサ144と、音声マイクとしてのマイクロフォン145と、を有する。振動センサ144は、ロボットハンドまたは把持物と対象物との接触部位の振動するためのもので、例えば加速度ピックアップなどである。マイクロフォン145は、ロボットハンドまたは把持物と対象物との接触部位から発せられる摺動音を検出するためのものである。
制御部200は、駆動輪ユニット210へ駆動信号を送ることにより、駆動輪111の回転制御を実行する。また、制御部200は、本実施の形態にかかる演算装置300による演算結果に基づいて、ロボットアーム130及びロボットハンド140の動作を制御する。すなわち、制御部200は、本実施の形態にかかる演算装置300による演算結果に基づいて、ロボットアーム130のアクチュエータ132及びロボットハンド140のアクチュエータ142へ駆動信号を送信する。
次に、本実施の形態にかかる演算装置300の構成について説明する。
図3は、演算装置300の構成を示すブロック図である。図3に示すように、演算装置300は、主に、取得部310と、記憶部320と、演算部330と、出力部340と、を備える。
取得部310は、摺動を伴う作業を行っているときのロボット100の状態を示す状態変数を取得し、演算部330へ引き渡す。取得部310は、インターネットと接続するための通信インターフェースを含む。通信インターフェースは、例えば無線LANユニットである。
ここで、取得する状態変数は、
1)対象物の位置及び速度、
2)対象物の種類及び形状及び状態、
3)対象物に対するロボットハンド140または把持物の相対位置及び相対速度、
4)ロボットハンド140または把持物と対象物との接触の有無、
5)ロボットハンド140の操作力または把持対象物の把持に係わる各関節部131の操作力、
6)ロボットハンド140または把持物と対象物との接触部位の振動、
7)ロボットハンド140または把持物と対象物との接触部位から発せられる摺動音、
8)目標姿勢と実際の姿勢の差または制御系の適応量、
のいずれかである。取得する状態変数は、1)から7)を適宜組み合わせるようにしても良い。
上記状態変数のうち、1)と2)はハンドカメラ141により、3)と8)はロボットアーム130の回転センサ134により、4)はロボットハンド140の力センサ143により、5)はロボットアーム130の力センサ133により、それぞれ取得する(図2参照)。また、6)は振動センサ144により、7)はマイクロフォン145により、それぞれ取得する(図2参照)。
なお、状態変数として、ロボットハンドまたは把持物と対象物との接触部位の振動を選択した場合、ロボットハンドまたはロボットハンドにより把持された把持物と対象物との間の摺動をより的確に捉えることができる。また、ロボットハンドまたは把持物と対象物との接触部位から発せられる摺動音を選択した場合にも、ロボットハンドまたはロボットハンドにより把持された把持物と対象物との間の摺動をより的確に捉えることができる。
記憶部320は、例えばハードディスクドライブであり、学習済み機械学習器としての学習済みニューラルネットワーク(以下、「学習済みNN320a」などと記す)を記憶している。学習済みNN320aは、予め取得された状態変数及び状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習を行ったものである。学習済みNN320aにおいて、機械学習器としてのニューラルネットワークを学習させる具体的な方法については後述する。記憶部320は、学習済みNN320aの他に、演算部330が実行する各種ソフトウェアプログラムを記憶している。
演算部330は、例えばCPUであり、演算部330から読み出した学習済みNN320aに状態変数を入力することによって、ロボット100における、摺動を伴う作業に係わる各種アクチュエータの目標値を演算する。ここで、摺動を伴う作業に係わる各種アクチュエータとは、ロボットアーム130のアクチュエータ132及びロボットハンド140のアクチュエータ142である。
演算部330は、状態変数を取得部310から受け取ると、記憶部320から学習済みNN320aを読み出す。演算部330は、状態変数を学習済みNN320aに入力して、ロボット100における、摺動を伴う作業に係わる各種アクチュエータの目標値を演算し、出力部340へ引き渡す。
出力部340は、ロボット100に対して各種アクチュエータの目標値を出力する。出力部340は、インターネットと接続するための通信インターフェースを含む。出力部340は、取得部310の通信インターフェースを共用しても良い。
次に、学習済みNN320aにおいて、ニューラルネットワークを学習させる具体的な方法について説明する。なお、以下の説明では、ロボット100の制御構成については図2を、演算装置300の構成については図3を適宜参照する。
図4は、ロボット100に摺動を伴う作業を行わせている状態を示す模式図である。図4に示すように、ロボット100が行う摺動を伴う作業は、把持物としての筆記具151により対象物150に所定の文字または図形を描く作業(以下、「文字書き作業」という)であるとする。文字書き作業において、対象物150は、ホワイトボード、黒板、模造紙など、文字を記載するための媒体である。ここでは、ロボット100は、アルファベットの「a」という文字を書く動作を行っている。
図5は、教師あり学習によって未学習NN320bに文字書き作業を学習させる方法について具体的に説明する模式図である。ここで、学習前のニューラルネットワーク(以下、「未学習NN320b」などと記す)に文字書き作業を学習させる手法は、教師あり学習であるとする。教師あり学習は、学習対象のデータに正解があらかじめ決まっている場合に、学習対象のデータ(入力)と正解(出力)の組み合わせによって構成される訓練データセットを事前に大量に与えて、入力と出力の関係を学習させる方法である。
図5に示すように、入力としての状態変数161と、出力としての判定データ162の組み合わせによって構成される訓練データセット160を、未学習NN320bに与える。ここで、判定データ162は、ロボット100における文字書き作業に係わる各種アクチュエータの目標値と、環境カメラ121のイメージセンサ、回転センサ134、力センサ133、振動センサ144、マイクロフォン145のうち少なくとも一つの出力値と、を含む。訓練データセット160は、例えば人がティーチングペンダント等でロボット100を操作するなどして、ロボット100に図4に示すような文字書き動作を繰り返し行わせることによって予め複数取得されたものである。これにより、文字書き作業における、状態変数161と判定データ162との関係を未学習NN320bに学習させる。訓練データセット160の取得数nを増やすことによって学習済みNN320aの判定精度を高めることができる。
文字書き作業の学習では、1つの文字に対し、当該文字を書く作業をロボット100に繰り返し行わせて訓練データセット160を複数取得するようにする。そして、未学習NN320bには、文字ごとに複数の訓練データセット160を与え、文字ごとに学習させるようにする。すなわち、未学習NN320bが、例えばアルファベットの「a」を書く作業を学習し終えたら、同様にして、「b」を書く作業、「c」を書く作業、・・・と、順次学習させる。
未学習NN320bを学習させる方法は、把持物としての拭き取り具で対象物の拭き取りを行う作業(以下、「拭き取り作業」という)であっても、上述した文字書き作業の場合と同様である。図6は、ロボット100に拭き取り作業を行わせている状態を示す模式図である。図6に示すように、ロボット100は、拭き取り具153により対象物152の拭き取りを行う。拭き取り作業において、対象物152は、例えば窓や机などの、汚れや埃の除去を必要とする物であり、拭き取り具153は、例えばモップや雑巾などの、拭き取りを行うための媒体である。
拭き取り作業の場合、判定データ162(図5参照)は、ロボット100における拭き取り作業に係わる各種アクチュエータの目標値と、環境カメラ121のイメージセンサ、回転センサ134、力センサ133、振動センサ144、マイクロフォン145のうち少なくとも一つの出力値と、を含む。訓練データセット160は、例えば人がティーチングペンダント等でロボット100を操作するなどして、ロボット100に図6に示すような拭き取り動作を繰り返し行わせることによって予め複数取得されたものである。これにより、拭き取り作業における、状態変数161と判定データ162との関係を未学習NN320bに学習させる。
次に、演算装置300が実行する処理の流れについて説明する。
図7は、演算装置300の処理の流れを示すフローチャートである。図7に示すように、まず、取得部310が、摺動を伴う作業中に状態変数を取得し、状態変数を演算部330へ引き渡す(ステップS101)。
続いて、演算部330が、記憶部320から学習済みNN320aを読み出す(ステップS102)。そして、読み出した学習済みNN320aに取得した状態変数を入力して、ロボット100における、摺動を伴う作業に係わる各種アクチュエータの目標値を演算し、これらの目標値を出力部340へ引き渡す(ステップS103)。続いて、出力部340が、ロボット100に対して各種アクチュエータの目標値を出力する(ステップS104)。そして一連の処理を終了する。
以上のように、演算装置300は、ロボットハンド140または把持物と対象物との接触部位から発せられる摺動音など、取得が容易でかつ摺動を伴う作業の善し悪しの判断が可能な状態変数を機械学習器で取り扱う入力とする。このような状態変数を入力とする学習済み機械学習器によって計算した各種アクチュエータの目標値を用いることで、ロボット100による摺動を伴う作業が、作業環境に応じて最適化されたものになるようロボット100をリアルタイムに制御することができる。これにより、ロボット100が、摺動を伴う作業を精度良く、容易にかつ短時間で、実施することができるようになる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、演算装置をロボットの制御部とは別体として構成したが、演算装置の機能ブロック(取得部、演算部、記憶部、出力部)がロボットの制御部に組み込まれた構成であってもよい。
上記実施の形態にかかる演算装置で用いるニューラルネットワークとして、リカレントニューラルネットワーク(RNN:Recurrent Neural Network)やシーケンストゥシーケンスモデル(Sequence−to−Sequence)モデルなど時系列データを扱うものを用いることができる。上記実施の形態では、未学習NNの学習のさせ方について、摺動を伴う作業を教師あり学習で学習させる例について説明したが、これに限るものではない。摺動を伴う作業を、例えば強化学習などの他の機械学習の手法で実施しても良い。
上記実施の形態における演算装置が実現する各構成要素は、例えば、コンピュータに制御プログラムを実行させることによっても実現することができる。より具体的には、コンピュータにおいて、記憶部(図示せず)に格納された制御プログラムを主記憶装置(図示せず)にロードし、主記憶装置で当該制御プログラムを実行することによって実現することができる。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア及びソフトウェアのうちのいずれかの組み合わせ等により実現しても良い。
上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
100 ロボット
110 台車部
111 駆動輪
112 キャスター
120 本体部
121 環境カメラ
123 表示パネル
130 ロボットアーム
131 関節部
132 アクチュエータ
133 力センサ
134 回転センサ
140 ロボットハンド
140a 第1フィンガー
140b 第2フィンガー
141 ハンドカメラ
142 アクチュエータ
143 力センサ
144 振動センサ
145 マイクロフォン
190 コントロールユニット
200 制御部
210 駆動輪ユニット
220 センサユニット
240 メモリ
300 演算装置
310 取得部
320 記憶部
320a 学習済みNN
330 演算部
340 出力部
320b 未学習NN

Claims (7)

  1. 把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の動作を制御するための演算を行う演算装置であって、
    前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記把持装置の状態を示す状態変数として取得する取得部と、
    予め取得された前記状態変数及び前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習した学習済み機械学習器を記憶した記憶部と、
    前記記憶部から読み出した前記学習済み機械学習器に前記状態変数を入力することによって前記把持装置における前記作業に係わる各種アクチュエータの目標値を演算する演算部と、
    前記把持装置に対して前記各種アクチュエータの目標値を出力する出力部と、を備える演算装置。
  2. 前記機械学習器における機械学習の手法が教師あり学習である場合、前記訓練データセットにおける前記判定データは、前記各種アクチュエータの目標値と、イメージセンサ、回転センサ、力センサ、振動センサ、音声マイクのうち少なくとも一つの出力値と、を演算処理した出力を含む、請求項1に記載の演算装置。
  3. 前記作業は、前記把持物としての筆記具により前記対象物に所定の文字または図形を描く作業である、請求項1または2に記載の演算装置。
  4. 前記作業は、前記把持物としての拭き取り具で前記対象物の拭き取りを行う作業である、請求項1または2に記載の演算装置。
  5. 把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の動作を制御するための制御プログラムであって、
    前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記把持装置の状態を示す状態変数として取得するステップと、
    予め取得された前記状態変数及び前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習した学習済み機械学習器を記憶した記憶部から読み出した前記学習済み機械学習器に前記状態変数を入力することによって前記把持装置における前記作業に係わる各種アクチュエータの目標値を演算するステップと、
    前記把持装置に対して前記各種アクチュエータの目標値を出力するステップと、をコンピュータに実行させる制御プログラム。
  6. 把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業を行う把持装置の各種アクチュエータの目標値を決定する機械学習器であって、
    予め取得された前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記把持装置の状態を示す状態変数とし、前記状態変数及び前記状態変数に対応した判定データである前記摺動させる動作における前記把持装置の各種アクチュエータの目標値の組み合わせによって構成される訓練データセットを複数入力して学習させる、機械学習器。
  7. 把持部と、
    前記把持部または前記把持部により把持された把持物を対象物に接触させて摺動させる動作を伴う作業に係わる各種アクチュエータと、
    前記作業を行っているときの、前記対象物の位置及び速度、前記対象物の種類及び形状及び状態、前記対象物に対する前記把持部または前記把持物の相対位置及び相対速度、前記把持部または前記把持物と前記対象物との接触の有無、前記把持部の操作力または前記把持対象物の把持に係わる各関節部の操作力、前記把持部または前記把持物と前記対象物との接触部位の振動、前記把持部または前記把持物と前記対象物との接触部位から発せられる摺動音、目標姿勢と実際の姿勢の差または制御系の適応量、のいずれかを前記作業を行っているときの把持装置の状態を示す状態変数として取得する取得部と、
    予め取得された前記状態変数及び前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習した学習済み機械学習器を記憶した記憶部と、
    前記記憶部から読み出した前記学習済み機械学習器に前記状態変数を入力することによって前記各種アクチュエータの目標値を演算する演算部と、
    前記各種アクチュエータの目標値を出力する出力部と、を備える把持装置。
JP2019096927A 2019-05-23 2019-05-23 演算装置、制御プログラム、機械学習器及び把持装置 Active JP7263920B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019096927A JP7263920B2 (ja) 2019-05-23 2019-05-23 演算装置、制御プログラム、機械学習器及び把持装置
US16/875,452 US11571810B2 (en) 2019-05-23 2020-05-15 Arithmetic device, control program, machine learner, grasping apparatus, and control method
CN202010410899.XA CN111975763B (zh) 2019-05-23 2020-05-15 算术设备、控制程序、机器学习器、抓握装置和控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019096927A JP7263920B2 (ja) 2019-05-23 2019-05-23 演算装置、制御プログラム、機械学習器及び把持装置

Publications (2)

Publication Number Publication Date
JP2020189389A true JP2020189389A (ja) 2020-11-26
JP7263920B2 JP7263920B2 (ja) 2023-04-25

Family

ID=73441775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019096927A Active JP7263920B2 (ja) 2019-05-23 2019-05-23 演算装置、制御プログラム、機械学習器及び把持装置

Country Status (3)

Country Link
US (1) US11571810B2 (ja)
JP (1) JP7263920B2 (ja)
CN (1) CN111975763B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127017A1 (ja) * 2021-12-27 2023-07-06 三菱電機株式会社 検査装置、検査方法、及び検査プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230271319A1 (en) * 2022-02-28 2023-08-31 Denso Wave Incorporated Method of generating a learning model for transferring fluid from one container to another by controlling robot arm based on a machine-learned learning model, and a method and system for weighing the fluid

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02286298A (ja) * 1989-04-28 1990-11-26 Janome Sewing Mach Co Ltd 毛筆プロッタの毛筆駆動制御方法
JP2005319351A (ja) * 2004-05-06 2005-11-17 Honda Motor Co Ltd 金型の自動清掃装置
JP2010089010A (ja) * 2008-10-08 2010-04-22 Isuzu Motors Ltd 除塵システム及び除塵ロボット
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2711294C (en) * 2008-01-10 2016-03-08 Parata Systems, Llc System and method for calibrating an automated materials handling system
US11279025B2 (en) * 2011-06-02 2022-03-22 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP2017087316A (ja) 2015-11-04 2017-05-25 トヨタ自動車株式会社 動作計画方法
JP2017121649A (ja) 2016-01-07 2017-07-13 トヨタ自動車株式会社 溶接ロボットのティーチング装置
EP3405910B1 (en) * 2016-03-03 2020-11-25 Google LLC Deep machine learning methods and apparatus for robotic grasping
JP2018126798A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6546618B2 (ja) * 2017-05-31 2019-07-17 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
SG11202000652SA (en) * 2017-07-25 2020-02-27 Mbl Ltd Systems and methods for operations a robotic system and executing robotic interactions
JP6680732B2 (ja) * 2017-08-23 2020-04-15 ファナック株式会社 物品積み付け装置及び機械学習装置
JP6608890B2 (ja) * 2017-09-12 2019-11-20 ファナック株式会社 機械学習装置、ロボットシステム及び機械学習方法
JP6649345B2 (ja) * 2017-11-10 2020-02-19 ファナック株式会社 ロボット
CN207953879U (zh) * 2018-03-15 2018-10-12 北京化工大学 一种人工智能的书法机器人
JP6781183B2 (ja) * 2018-03-26 2020-11-04 ファナック株式会社 制御装置及び機械学習装置
EP3782768A4 (en) * 2018-04-15 2022-01-05 University of Tsukuba BEHAVIOR ESTIMATION DEVICE, BEHAVIOR ESTIMATION PROCESS AND BEHAVIOR ESTIMATION PROGRAM
US11383386B2 (en) * 2018-10-04 2022-07-12 Brown University Robotic drawing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02286298A (ja) * 1989-04-28 1990-11-26 Janome Sewing Mach Co Ltd 毛筆プロッタの毛筆駆動制御方法
JP2005319351A (ja) * 2004-05-06 2005-11-17 Honda Motor Co Ltd 金型の自動清掃装置
JP2010089010A (ja) * 2008-10-08 2010-04-22 Isuzu Motors Ltd 除塵システム及び除塵ロボット
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127017A1 (ja) * 2021-12-27 2023-07-06 三菱電機株式会社 検査装置、検査方法、及び検査プログラム

Also Published As

Publication number Publication date
CN111975763B (zh) 2023-04-28
US20200368901A1 (en) 2020-11-26
JP7263920B2 (ja) 2023-04-25
CN111975763A (zh) 2020-11-24
US11571810B2 (en) 2023-02-07

Similar Documents

Publication Publication Date Title
CN110573308B (zh) 用于机器人设备的空间编程的基于计算机的方法及系统
WO2017064851A1 (ja) ロボット教示方法及びロボットアーム制御装置
JP6781183B2 (ja) 制御装置及び機械学習装置
JP7207207B2 (ja) 演算装置、機械学習方法及び制御プログラム
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
WO2019107455A1 (ja) 技能伝承機械装置
JPWO2017033367A1 (ja) 遠隔操作ロボットシステム
WO2017090235A1 (ja) ロボットのダイレクト教示方法
JP6773098B2 (ja) ロボットシステム及びロボット制御方法
JP6669715B2 (ja) 振動抑制装置
JP7044047B2 (ja) ロボット
JP4976883B2 (ja) マニピュレータシステム
JP4534015B2 (ja) マスタ・スレーブ式ロボット制御情報確定方法
US11571810B2 (en) Arithmetic device, control program, machine learner, grasping apparatus, and control method
WO2019202900A1 (ja) 行動推定装置、行動推定方法、および行動推定プログラム
Jalendra et al. Vision sensor based residual vibration suppression strategy of non-deformable object for robot-assisted assembly operation with gripper flexibility
JP2006281330A (ja) ロボットシミュレーション装置
JP5004108B2 (ja) ロボット及びハンドの制御情報を確定するためのマスタ・スレーブ装置及び制御情報確定方法
JPH0635525A (ja) ロボットアームの制御方法
KR102281119B1 (ko) 강화학습을 이용한 7축 로봇 제어 방법
JP6814441B2 (ja) 駆動機械の学習制御装置及び学習制御方法
JPH03105404A (ja) ダイレクトティーチ方式
JPH058187A (ja) ロボツト
JP2022120649A (ja) 制御システム、動作計画装置、制御装置、動作計画及び制御方法、動作計画方法、並びに制御方法
Salah Skill Transfer and Improvement Framework for a Simulated Robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7263920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151