JP2021011001A - 演算装置、機械学習方法及び制御プログラム - Google Patents

演算装置、機械学習方法及び制御プログラム Download PDF

Info

Publication number
JP2021011001A
JP2021011001A JP2019127781A JP2019127781A JP2021011001A JP 2021011001 A JP2021011001 A JP 2021011001A JP 2019127781 A JP2019127781 A JP 2019127781A JP 2019127781 A JP2019127781 A JP 2019127781A JP 2021011001 A JP2021011001 A JP 2021011001A
Authority
JP
Japan
Prior art keywords
target article
moving target
mobile manipulator
predetermined position
moved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019127781A
Other languages
English (en)
Other versions
JP7207207B2 (ja
Inventor
高橋 太郎
Taro Takahashi
太郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019127781A priority Critical patent/JP7207207B2/ja
Priority to DE102020114583.7A priority patent/DE102020114583B4/de
Priority to CN202010498466.4A priority patent/CN112207813A/zh
Priority to US16/897,567 priority patent/US11633852B2/en
Publication of JP2021011001A publication Critical patent/JP2021011001A/ja
Application granted granted Critical
Publication of JP7207207B2 publication Critical patent/JP7207207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40364Position of robot platform as additional task
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office

Abstract

【課題】モバイルマニピュレータにより今所定の位置まで移動するのに最適な移動対象物品を適切に決定することができる演算装置を提供する。【解決手段】複数の移動対象物品をマニピュレータにより保持して所定の位置まで移動する作業を行うモバイルマニピュレータの動作を制御するための演算を行う演算装置は、予め取得された状態変数及び状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習する学習済みの機械学習器を記憶した記憶部と、記憶部から読み出した学習済みの機械学習器に状態変数を入力することによって今所定の位置まで移動するべき物品を出力する演算部と、を備え、状態変数には、モバイルマニピュレータの特定部位と移動対象物品との相対位置が含まれ、状態変数に対応した判定データを今所定の位置まで移動するべき移動対象物品とする。【選択図】図3

Description

本発明は、複数の移動対象物品をマニピュレータにより保持して所定の位置に移動させる作業を行うモバイルマニピュレータの動作を制御するための演算を行う演算装置に関する。
マニピュレータにより移動対象物品を保持するロボットが知られている。例えば特許文献1には、ロボットが所定の位置に固定され、コンベヤ上の所定領域に配置された複数の物品を当該マニピュレータで保持する順番を機械学習器で学習させる技術が開示されている。
特開2018−051664号公報
しかしながら、特許文献1に開示された技術は、ロボットが所定の位置に固定された状態であることを前提としており、マニピュレータを備えたロボット自身が移動するモバイルマニピュレータには適用できない。
本発明は、以上の背景に鑑みなされたもので、モバイルマニピュレータにより今所定の位置まで移動するのに最適な移動対象物品を適切に決定することができる演算装置を提供することを目的とする。
本発明の一態様にかかる演算装置は、複数の移動対象物品をマニピュレータにより保持して所定の位置まで移動する作業を行うモバイルマニピュレータの動作を制御するための演算を行う演算装置であって、予め取得された、状態変数、及び、前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習する学習済みの機械学習器を記憶した記憶部と、前記記憶部から読み出した前記学習済みの機械学習器に前記状態変数を入力することによって今所定の位置まで移動するべき移動対象物品を出力する演算部と、を備え、前記状態変数には、前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置が含まれ、前記状態変数に対応した判定データは、前記今所定の位置まで移動するべき移動対象物品であるものである。
モバイルマニピュレータの特定部位と移動対象物品との相対位置を機械学習器の状態変数に含めると、モバイルマニピュレータの特定部位を基準としたそれぞれの移動対象物品の位置関係が分かる。これにより、自身の絶対位置が変わるモバイルマニピュレータにより今所定の位置まで移動するのに最適な移動対象物品を適切に決定することができる。
また、前記状態変数には、前記モバイルマニピュレータの特定部位と障害物との相対位置が含まれることが好ましい。モバイルマニピュレータの特定部位と移動対象物品との相対位置が同じでも、モバイルマニピュレータと移動対象物品との間に障害物があるか、ないか、によって所定の位置までの移動しやすさは変わってくる。状態変数にモバイルマニピュレータの特定部位と障害物との相対位置を含めることで、今所定の位置まで移動するのに最適な移動対象物品をより適切に決定することができる。
前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置と、前記モバイルマニピュレータの特定部位と障害物との相対位置は、マップ上またはビットマップ画像上に表されるデータであることが好ましい。これによって、機械学習器を学習させる過程において、隣接する障害物を一体物としてまとめて扱うことが可能になる。
前記今所定の位置まで移動するべき移動対象物品の出力は、前記マップ上またはビットマップ画像上に表される前記移動対象物品の相対位置データであることが好ましい。これによって出力を統一的に表記することが出来るので、機械学習器の学習性能をより向上させることが期待できる。また、マップ上またはビットマップ画像上に表される、移動対象物品のモバイルマニピュレータの特定部位に対する相対位置データが出力されるようにすると、移動対象物品を改めて特定する必要がないので、演算量の削減が期待できる。
さらに、前記状態変数には、経路計画で得られた、前記モバイルマニピュレータから前記移動対象物品へ至る経路における、経路長が含まれることが好ましい。モバイルマニピュレータの特定部位と移動対象物品との相対位置が同じでも、モバイルマニピュレータから移動対象物品へ至る経路における、経路長によって所定の位置までの移動しやすさは変わってくる。このようにすることで、今所定の位置に移動するのに最適な移動対象物品をより適切に決定することができる。
さらに、前記状態変数には、前記移動対象物品から当該移動対象物品に対応する所定の位置へ至る経路長が含まれることが好ましい。モバイルマニピュレータの特定部位と移動対象物品との相対位置が同じでも、移動対象物品から当該移動対象物品に対応する収納位置へ至る経路長によって所定の位置までの移動しやすさは変わってくる。このようにすることで、今所定の位置まで移動するのに最適な移動対象物品をより適切に決定することができる。
さらに、前記モバイルマニピュレータの特定部位と前記移動対象物品及び前記障害物との相対位置は、重力方向の情報を含むことが好ましい。モバイルマニピュレータに対して、移動対象物品の手前にある障害物が当該障害物と比べて重力方向の長さが長い場合、モバイルマニピュレータは障害物よりも当該移動対象物品が手前に来るような位置へ移動しなければ当該移動対象物品を保持することができない。一方、モバイルマニピュレータに対して、移動対象物品の手前にある障害物が当該障害物と比べて重力方向の長さが短い場合、障害物が当該移動対象物品より手前にあっても、当該移動対象物品の重力方向上部を保持位置とすれば当該移動対象物品を保持することができる。このように、モバイルマニピュレータの特定部位と移動対象物品及び障害物との相対位置が重力方向の情報を含んでいると、今所定の位置まで移動するのに最適な移動対象物品をより適切に決定することができる。
さらに、前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置は、当該移動対象物品の保持可能領域の情報を含むことが好ましい。モバイルマニピュレータの特定部位と移動対象物品との相対位置が同じであっても、移動対象物品の保持可能領域がモバイルマニピュレータの位置に対して正面側にあるか、裏側にあるか、で所定の位置までの移動しやすさは変わってくる。モバイルマニピュレータの特定部位と移動対象物品との相対位置は、移動対象物品の保持可能領域の情報を含めることで、今所定の位置に移動するのに最適な移動対象物品をより適切に決定することができる。
本発明の一態様に係る機械学習方法は、モバイルマニピュレータの有するマニピュレータにより複数の移動対象物品を保持して所定の位置まで移動する作業で、今所定の位置まで移動するべき移動対象物品を出力するようコンピュータを機能させるための機械学習器の機械学習方法であって、前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置が含まれる状態変数、及び、判定データとしての前記状態変数に対応した今所定の位置まで移動するべき移動対象物品の組み合わせによって構成される訓練データセットを複数入力して前記機械学習器を学習させる。これによれば、モバイルマニピュレータの有するマニピュレータにより複数の移動対象物品を保持して所定の位置まで移動する作業において、今所定の位置まで移動するのに最適な移動対象物品をより適切に決定するように機械学習器を学習させることができる。
本発明の一態様に係る制御プログラムは、複数の移動対象物品をマニピュレータにより保持して所定の位置まで移動する作業を行うモバイルマニピュレータの動作を制御する制御プログラムであって、前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置が含まれる状態変数、及び、判定データとしての前記状態変数に対応した今所定の位置まで移動するべき移動対象物品の組み合わせによって構成される訓練データセットを予め取得し、前記訓練データセットを複数入力して機械学習器を学習させるステップと、学習済みの前記機械学習器に前記状態変数を入力することによって、今所定の位置まで移動するべき移動対象物品を出力するステップと、をコンピュータに実行させるものである。これによれば、モバイルマニピュレータの有するマニピュレータにより複数の移動対象物品を保持して所定の位置まで移動する作業において、今所定の位置まで移動するのに最適な移動対象物品をより適切に決定することができる。
本発明によれば、モバイルマニピュレータにより今所定の位置まで移動するのに最適な移動対象物品を適切に決定することができる。
本実施形態に係る演算装置を適用するモバイルマニピュレータの外観斜視図である。 モバイルマニピュレータの制御構成を示すブロック図である。 演算装置の構成を示すブロック図である。 機械学習器の状態変数について説明する模式図である。 モバイルマニピュレータの特定部位と移動対象物品との相対位置とともに機械学習器の状態変数に含めるのが好ましい変量を示す模式図である。 モバイルマニピュレータの特定部位と移動対象物品との相対位置とともに機械学習器の状態変数に含めるのが好ましい変量を示す模式図である。 モバイルマニピュレータの特定部位と移動対象物品との相対位置とともに機械学習器の状態変数に含めるのが好ましい変量を示す模式図である。 教師あり学習によって未学習NNに片付け作業を学習させる方法について具体的に説明する模式図である。 学習済みNNの入力、出力のイメージについて示す模式図である。 演算装置の処理の流れを示すフローチャートである。 モバイルマニピュレータにおいて実行する処理の流れを示すフローチャートである。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
本実施形態に係る演算装置は、例えば家庭内や工場内において、複数の移動対象物品をマニピュレータにより所定の位置に移動させる作業を行うモバイルマニピュレータの動作を制御するための演算を行うものである。ここで、モバイルマニピュレータは、台車などを備えた移動することが可能なものである。また、複数の移動対象物品をマニピュレータにより所定の位置に移動させる作業は、例えば、片付け作業である。
まず、本実施形態に係る演算装置を適用するモバイルマニピュレータの構成について説明する。
図1は、本実施形態に係る演算装置を適用するモバイルマニピュレータ100の外観斜視図である。図において、xy平面はモバイルマニピュレータ100の走行面であり、z軸プラス方向は天頂方向を示す。図1に示すように、モバイルマニピュレータ100は、大きく分けて、走行面を移動するための移動機構としての台車部110と、本体部120と、マニピュレータ150を構成するロボットアーム130及びロボットハンド140と、によって構成される。
台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。モバイルマニピュレータ100は、例えば、2つの駆動輪111が同じ方向に同じ回転速度で回転されれば直進し、逆方向に同じ回転速度で回転されれば台車部110の2つの駆動輪111の中央を通る鉛直軸周りに旋回する。
本体部120は、ロボットアーム130を支持すると共に、ユーザインタフェースの一部を成す表示パネル123を有する。表示パネル123は、例えば液晶パネルであり、キャラクターの顔を表示したり、モバイルマニピュレータ100に関する情報を提示したりする。表示パネル123は、表示面にタッチパネルを有し、ユーザからの指示入力を受け付けることができる。
本体部120は、マニピュレータ150の動作範囲を含む前方の環境空間を見渡せる位置に環境カメラ121を有する。環境カメラ121は、例えばCMOSイメージセンサである撮像素子と画像データ生成部を含み、前方の環境空間を撮像して生成した画像データを出力する。また、本体部120には、コントロールユニット190が設けられている。コントロールユニット190は、後述の制御部とメモリ等を含む。
本体部120に支持されたロボットアーム130は、複数のリンク、例えば図示するように2つのリンクを有し、各リンクを回動可能に連結する関節部131(手首関節、肘関節、肩関節など)に設けられたアクチュエータを駆動させることにより様々な姿勢を取り得る。各関節部131には、減速機構が設けられている。ロボットアーム130の先端部にはロボットハンド140が接続されており、ロボットハンド140の全体は、ロボットアーム130の先端リンクの伸延方向と平行な旋回軸周りに、アクチュエータの駆動によって旋回し得る。ロボットハンド140は、先端部に設けられたアクチュエータによって駆動される第1フィンガー140aと第2フィンガー140bを備える。第1フィンガー140aと第2フィンガー140bは、点線矢印で示すようにそれぞれが互いに接近するように動作して、対象物を挟持することにより保持を実現する。なお、ロボットハンド140による移動対象物品の保持には、ロボットハンド140の第1フィンガー140aと第2フィンガー140bにより移動対象物品を把持する場合に限らず、ロボットハンド140の先端に吸着機構が設けられている場合に当該吸着機構により吸着する場合なども含まれる。また、ロボットハンド140による移動対象物品の保持には、ロボットハンド140で把持・吸着を併用して移動対象物品の保持する場合も含まれる。ロボットハンド140にはハンドカメラ141が配設されている。ハンドカメラ141は、例えばCMOSイメージセンサである撮像素子と画像データ生成部を含み、ロボットハンド140の前方空間を撮像して生成した画像データを出力する。
図2は、モバイルマニピュレータ100の制御構成を示すブロック図である。制御部200は、例えばCPUであり、本体部120のコントロールユニット190(図1参照)に格納されている。駆動輪ユニット210は、駆動輪111(図1参照)を駆動するための駆動回路やモータを含み、台車部110(図1参照)に設けられている。
センサユニット220は、移動中に障害物を検出したり、外部からの接触を検出したりする各種センサを含み、台車部110及び本体部120(図1参照)に分散して配置されている。制御部200は、センサユニット220に制御信号を送ることにより、各種センサを駆動してその出力を取得する。
環境カメラ121は、上述のように、ロボットアーム130及びロボットハンド140の動作範囲を含む前方の環境空間を観察するために利用され、制御部200の撮像指示に従って撮像を実行する。環境カメラ121は、生成した画像データを制御部200へ引き渡す。ハンドカメラ141は、上述のように、ロボットハンド140の前方空間を観察するために利用され、制御部200の撮像指示に従って撮像を実行する。ハンドカメラ141は、生成した画像データを制御部200へ引き渡す。
メモリ240は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、モバイルマニピュレータ100を制御するための制御プログラムの他、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
ロボットアーム130は、図1を用いて説明した構造体の他に、各関節部131を駆動するアクチュエータ132と、各関節部131の回転情報を検出する回転センサ134と、各関節部131の操作力(トルク)を検出する力センサ133と、を有する。アクチュエータ132は、例えばサーボモータなどである。回転センサ134は、例えばエンコーダなどである。力センサ133は、例えば、各関節部131のトルクを検出するトルクセンサなどである。ロボットハンド140は、第1フィンガー140aと第2フィンガー140b(図1参照)を駆動するアクチュエータ142と、ロボットハンド140の操作力を検出する力センサ143と、を有する。
制御部200は、駆動輪ユニット210へ駆動信号を送ることにより、駆動輪111の回転制御を実行する。また、制御部200は、本実施の形態にかかる演算装置300による演算結果に基づいて、ロボットアーム130及びロボットハンド140の動作を制御する。すなわち、制御部200は、本実施の形態にかかる演算装置300による演算結果に基づいて、ロボットアーム130のアクチュエータ132及びロボットハンド140のアクチュエータ142へ駆動信号を送信する。
次に、本実施の形態にかかる演算装置300の構成について説明する。
図3は、演算装置300の構成を示すブロック図である。図3に示すように、演算装置300は、主に、取得部310と、記憶部320と、演算部330と、を備える。
取得部310は、状態変数を取得し、演算部330へ引き渡す。ここで、取得部310は、環境カメラ121またはハンドカメラ141(図2参照)により撮像された作業環境の画像データを分析することにより、モバイルマニピュレータ100の特定部位と移動対象物品との相対位置を取得する。モバイルマニピュレータ100の特定部位は、例えば、重心位置や、ロボットハンド140を床面に投影した位置など、演算によって算出される位置であっても良い。取得部310は、インターネットと接続するための通信インターフェースを含む。通信インターフェースは、例えば無線LANユニットである。
記憶部320は、例えばハードディスクドライブであり、学習済み機械学習器を記憶している。ここで、機械学習器は、例えばニューラルネットワーク(Neural Network)である。学習済み機械学習器(以下、「学習済みNN320a」などと記す)は、予め取得された状態変数及び状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習を行ったものである。学習済みNN320aにおいて、機械学習器を学習させる具体的な方法については後述する。記憶部320は、学習済みNN320aの他に、演算部330が実行する各種ソフトウェアプログラムを記憶している。
演算部330は、例えばCPUであり、演算部330から読み出した学習済みNN320aに取得部310から受け取った状態変数を入力することによって、今片付けるべき移動対象物品を出力する。
次に、機械学習器の状態変数について説明する。なお、以下の説明では図3についても適宜参照する。
図4は、機械学習器の状態変数について説明する模式図である。ここで、作業環境のマップEにおいて、移動対象物品は丸印で表されている。機械学習器の状態変数は、図4において矢印で示されている、モバイルマニピュレータ100の特定部位と移動対象物品(図中に丸印で示す)との相対位置が含まれている。すなわち、モバイルマニピュレータ100の特定部位P1と移動対象物品との相対位置は、モバイルマニピュレータ100の特定部位P1から移動対象物品へ至るベクトルである。モバイルマニピュレータ100の特定部位P1と移動対象物品との相対位置を状態変数に含めると、モバイルマニピュレータ100の特定部位P1に対するそれぞれの移動対象物品の位置関係が分かる。これにより、移動可能な本実施の形態に係るモバイルマニピュレータ100のように、モバイルマニピュレータ100自身が移動することによりモバイルマニピュレータ100の絶対位置が変わる場合にも、今所定の位置に移動するのに最適な移動対象物品を適切に決定することができる。
モバイルマニピュレータ100の特定部位と移動対象物品との相対位置は、移動対象物品の保持可能領域の情報を含んでいてもよい。移動対象物品の保持可能領域の情報は、環境カメラ121またはハンドカメラ141により撮像された作業環境の画像データから移動対象物品を認識することにより取得する。モバイルマニピュレータ100の特定部位と移動対象物品との相対位置が同じであっても、移動対象物品の保持可能領域がモバイルマニピュレータ100の位置に対して正面側にあるか、裏側にあるか、で片付けやすさは変わってくる。モバイルマニピュレータ100の特定部位P1と移動対象物品との相対位置は、移動対象物品の保持可能領域の情報を含めることで、今所定の位置に移動するのに最適な移動対象物品をより適切に決定することができる。
図5は、モバイルマニピュレータ100の特定部位と移動対象物品との相対位置とともに機械学習器の状態変数に含めるのが好ましい変量を示す模式図である。ここで、作業環境のマップEにおいて、移動対象物品は丸印で、障害物は斜線で囲まれた領域で表されている。なお、障害物は、斜線で囲まれた領域に含まれる点群情報によって表されていてもよい。機械学習器の状態変数には、図5において矢印で示されている、モバイルマニピュレータ100の特定部位P1と障害物との相対位置が含まれるのが好ましい。モバイルマニピュレータ100の特定部位P1と障害物との相対位置は、モバイルマニピュレータ100の特定部位P1から障害物の点群のそれぞれに至るベクトルである。モバイルマニピュレータ100の特定部位P1と移動対象物品との相対位置が同じでも、モバイルマニピュレータ100と移動対象物品との間に障害物があるか、ないか、によって、で片付けやすさは変わってくる。このようにすることで、今所定の位置に移動するのに最適な移動対象物品をより適切に決定することができる。
モバイルマニピュレータ100の特定部位と移動対象物品及び障害物との相対位置は、重力方向の情報を含んでいてもよい。すなわち、モバイルマニピュレータ100の特定部位と移動対象物品及び障害物との相対位置は、3次元ベクトルである。モバイルマニピュレータ100に対して、移動対象物品の手前にある障害物が当該障害物と比べて重力方向の長さが長い場合、モバイルマニピュレータ100は障害物よりも当該移動対象物品が手前に来るような位置へ移動しなければ当該移動対象物品を保持することができない。一方、モバイルマニピュレータ100に対して、移動対象物品の手前にある障害物が当該障害物と比べて重力方向の長さが短い場合、障害物が当該移動対象物品より手前にあっても、当該移動対象物品の重力方向上部を保持位置とすれば当該移動対象物品を保持することができる。このようにすることで、今所定の位置に移動するのに最適な移動対象物品をより適切に決定することができる。
モバイルマニピュレータ100の特定部位と移動対象物品との相対位置と、モバイルマニピュレータ100の特定部位と障害物との相対位置は、マップ上またはビットマップ画像上に表されるデータであることが好ましい。このようにすると、隣接する空間に他の物体や障害物が存在するという状態、あるいは物体が無いという状態を統一的に表現し、それらの位置関係を統一的に考慮しながら学習することが可能になり、学習精度が高められる。
図6は、モバイルマニピュレータ100の特定部位と移動対象物品との相対位置とともに機械学習器の状態変数に含めるのが好ましい変量を示す模式図である。ここで、作業環境のマップEにおいて、移動対象物品は丸印で、障害物は斜線で囲まれた領域で表されている。機械学習器の状態変数には、図6において破線で示されている、モバイルマニピュレータ100から移動対象物品へ至る経路における、経路長が含まれるのが好ましい。ここで、モバイルマニピュレータ100から移動対象物品へ至る経路における、経路長は、経路計画により得られたものである。ここで、経路計画には、RRT(Rapidly−exploring Random Tree)などの公知の手法を用いることができる。モバイルマニピュレータ100の特定部位P1と移動対象物品との相対位置が同じでも、モバイルマニピュレータ100から移動対象物品へ至る経路における、経路長によって片付けやすさは変わってくる。このようにすることで、今所定の位置に移動するのに最適な移動対象物品をより適切に決定することができる。
図7は、モバイルマニピュレータ100の特定部位と移動対象物品との相対位置とともに機械学習器の状態変数に含めるのが好ましい変量を示す模式図である。ここで、作業環境のマップEにおいて、移動対象物品は丸印で、所定の位置である収納位置は三角印で表されている。機械学習器の状態変数には、図7において破線で示されている、移動対象物品から当該移動対象物品に対応する収納位置へ至る経路長が含まれるのが好ましい。モバイルマニピュレータ100の特定部位P1と移動対象物品との相対位置が同じでも、移動対象物品から当該移動対象物品に対応する収納位置へ至る経路長によって片付けやすさは変わってくる。このようにすることで、今所定の位置に移動するのに最適な移動対象物品をより適切に決定することができる。なお、図7には、それぞれの移動対象物品から最も近い位置にある収納位置に収納する場合について示すが、移動対象物品ごとに収納位置C1、C2、C3、C4のどこに収納するかが決められている場合であってもよい。
なお、図4から図7を参照して説明した状態変数は、適宜組み合わせても良い。
次に、学習済みNN320aにおいて、機械学習器を学習させる具体的な方法について説明する。なお、以下の説明では、モバイルマニピュレータ100の制御構成については図2を、演算装置300の構成については図3を適宜参照する。
図8は、教師あり学習によって未学習NN320bに片付け作業を学習させる方法について具体的に説明する模式図である。ここで、学習前の機械学習器(以下、「未学習NN320b」などと記す)に片付け作業を学習させる手法は、教師あり学習であるとする。教師あり学習は、学習対象のデータに正解があらかじめ決まっている場合に、学習対象のデータ(入力)と正解(出力)の組み合わせによって構成される訓練データセットを事前に大量に与えて、入力と出力の関係を学習させる方法である。
図8に示すように、入力としての状態変数161と、出力としての判定データ162の組み合わせによって構成される訓練データセット160を、未学習NN320bに与える。ここで、状態変数は、上述した、モバイルマニピュレータ100の特定部位と移動対象物品との相対位置を含むものであり、判定データ162は、今片付けるべき移動対象物品である。訓練データセット160は、予め複数取得されたものである。これにより、片付け作業における、状態変数161と判定データ162との関係を未学習NN320bに学習させる。訓練データセット160の取得数nを増やすことによって学習済みNN320aの判定精度を高めることができる。
図9は、学習済みNN320aの入力、出力のイメージについて示す模式図である。図9に示すように、学習済みNN320aは、作業環境のマップEにおける、モバイルマニピュレータ100の特定部位P1と移動対象物品(図中に丸印で示す)との相対位置(図中に実線矢印で示す)を入力することによって、今片付けるべき移動対象物品(図中に黒丸印で示す)を出力する。なお、学習済みNN320aは、今片付けるべき移動対象物品とともに、今片付けても良い移動対象物品(図中に二重丸印で示す)や今片付けない方が良い移動対象物品(図中にバツ印で示す)を出力するようにしてもよい。
今所定の位置まで移動するべき移動対象物品の出力は、マップ上またはビットマップ画像上に表される、移動対象物品のモバイルマニピュレータ100の特定部位に対する相対位置データであることが好ましい。これによって出力を統一的に表記することが出来るので、機械学習器の学習性能をより向上させることが期待できる。また、マップ上またはビットマップ画像上に表される、移動対象物品のモバイルマニピュレータ100の特定部位に対する相対位置データが出力されるようにすると、移動対象物品を改めて特定する必要がないので、演算量の削減が期待できる。
次に、演算装置300が実行する処理の流れについて説明する。
図10は、演算装置300の処理の流れを示すフローチャートである。図10に示すように、まず、取得部310が、環境カメラ121などにより撮像された作業環境の画像データを分析することにより、モバイルマニピュレータ100の特定部位と移動対象物品との相対位置を含む状態変数を取得し、状態変数を演算部330へ引き渡す(ステップS1)。続いて、演算部330が、記憶部320から学習済みNN320aを読み出す(ステップS2)。そして、読み出した学習済みNN320aに取得した状態変数(モバイルマニピュレータ100の特定部位と移動対象物品との相対位置を含むもの)を入力して、今所定の位置に移動するべき移動対象物品を出力する(ステップS3)する。そして一連の処理を終了する。
次に、モバイルマニピュレータ100において実行する処理の流れについて説明する。
図11は、モバイルマニピュレータ100において実行する処理の流れを示すフローチャートである。図11に示すように、まず、学習済みNNを用いてどの移動対象物品から所定の位置に移動するか決定する(ステップS101)。この処理は、図10を参照して説明した演算装置300における処理である。続いて、決定した移動対象物品について、保持計画・経路計画を実行する(ステップS102)。保持計画、経路計画には、公知の技術を用いることができる。
ステップS102に続いて、保持計画・経路計画において解が求まった否かを判定する(ステップS103)。ステップS103において保持計画・経路計画において解が求まったと判定された場合、決定した移動対象物品の保持・移動を実行する(ステップS104)。ステップS103において保持計画・経路計画において解が求まらなかったと判定された場合、処理をステップS101に戻す。
ステップS104に続いて、決定した移動対象物品を所定の位置に移動できたか否かを判定する(ステップS105)。ステップS105において決定した移動対象物品を所定の位置に移動できなかったと判定された場合、決定した移動対象物品が元の位置から意図しない位置に移動したか否かを判定する(ステップS106)。ステップS106において決定した移動対象物品が元の位置から意図しない位置に移動していないと判定された場合、処理をステップS101に戻す。ステップS106において決定した移動対象物品が元の位置から意図しない位置に移動したと判定された場合、決定した移動対象物品を移動対象から一旦除外し(ステップS107)、処理をステップS101に戻す。
ステップS105において決定した移動対象物品を所定の位置に収納できたと判定された場合、一旦除外されていた移動対象物品を移動対象に含める(ステップS108)。続いて、移動対象物品を全て所定の位置に移動したか否か判定する(ステップS109)。ステップS109において移動対象物品のうち所定の位置に移動していないものがあると判定された場合、処理をステップS101に戻す。ステップS109において移動対象物品を全て所定の位置に移動したと判定された場合、処理を終了する。
以上のように、演算装置300によれば、モバイルマニピュレータ自身が移動する場合にも、今所定の位置に移動するのに最適な移動対象物品を適切に決定することができるようになる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、複数の移動対象物品をマニピュレータにより所定の位置に移動させる作業が、片付け作業である場合を例に説明したが、これに限るものではない。例えば、複数の移動対象物品をマニピュレータにより所定の位置に移動させる作業が、1箇所または複数箇所から物品を取り出しながら特定の場所に並べるような準備作業であってもよい。
上記実施の形態では、演算装置をロボットとは別体として構成したが、演算装置がモバイルマニピュレータに組み込まれた構成であってもよい。
上記実施の形態にかかる演算装置で用いる機械学習器として、リカレントニューラルネットワーク(RNN:Recurrent Neural Network)やシーケンストゥシーケンスモデル(Sequence−to−Sequence)モデルなど時系列データを扱うものを用いることができる。上記実施の形態では、未学習NNの学習のさせ方について、複数の移動対象物品をマニピュレータにより所定の位置に移動させる作業を教師あり学習で学習させる例について説明したが、これに限るものではない。複数の移動対象物品をマニピュレータにより所定の位置に移動させる作業を、例えば強化学習などの他の機械学習の手法で実施しても良い。
上記実施の形態における演算装置が実現する各構成要素は、例えば、コンピュータに制御プログラムを実行させることによっても実現することができる。より具体的には、コンピュータにおいて、記憶部(図示せず)に格納された制御プログラムを主記憶装置(図示せず)にロードし、主記憶装置で当該制御プログラムを実行することによって実現することができる。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア及びソフトウェアのうちのいずれかの組み合わせ等により実現しても良い。
上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
100 モバイルマニピュレータ
110 台車部
111 駆動輪
112 キャスター
120 本体部
121 環境カメラ
123 表示パネル
130 ロボットアーム
131 関節部
132 アクチュエータ
133 力センサ
134 回転センサ
140 ロボットハンド
140a 第1フィンガー
140b 第2フィンガー
141 ハンドカメラ
142 アクチュエータ
150 マニピュレータ
190 コントロールユニット
200 制御部
210 駆動輪ユニット
220 センサユニット
240 メモリ
300 演算装置
310 取得部
320 記憶部
320a 学習済みNN
330 演算部
320b 未学習NN

Claims (10)

  1. 複数の移動対象物品をマニピュレータにより保持して所定の位置まで移動する作業を行うモバイルマニピュレータの動作を制御するための演算を行う演算装置であって、
    予め取得された、状態変数、及び、前記状態変数に対応した判定データの組み合わせによって構成される訓練データセットが複数入力されることにより学習する学習済みの機械学習器を記憶した記憶部と、
    前記記憶部から読み出した前記学習済みの機械学習器に前記状態変数を入力することによって今所定の位置まで移動するべき移動対象物品を出力する演算部と、を備え、
    前記状態変数には、前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置が含まれ、
    前記状態変数に対応した判定データは、前記今所定の位置まで移動するべき移動対象物品である、演算装置。
  2. 前記状態変数には、前記モバイルマニピュレータの特定部位と障害物との相対位置が含まれる、請求項1に記載の演算装置。
  3. 前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置と、前記モバイルマニピュレータの特定部位と障害物との相対位置は、マップまたはビットマップ画像上に表されるデータである、請求項1または請求項2に記載の演算装置。
  4. 前記今所定の位置まで移動するべき移動対象物品の出力は、前記マップまたはビットマップ画像上に表される、前記移動対象物品の前記モバイルマニピュレータの特定部位に対する相対位置データである、請求項3に記載の演算装置。
  5. 前記状態変数には、経路計画で得られた、前記モバイルマニピュレータから前記移動対象物品へ至る経路における、経路長が含まれる、請求項1に記載の演算装置。
  6. 前記状態変数には、前記移動対象物品から当該移動対象物品に対応する所定の位置へ至る経路長が含まれる、請求項5に記載の演算装置。
  7. 前記モバイルマニピュレータの特定部位と前記移動対象物品及び前記障害物との相対位置は、重力方向の情報を含む、請求項2に記載の演算装置。
  8. 前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置は、当該移動対象物品の保持可能領域の情報を含む、請求項1に記載の演算装置。
  9. モバイルマニピュレータの有するマニピュレータにより複数の移動対象物品を保持して所定の位置まで移動する作業で、今所定の位置まで移動するべき移動対象物品を出力するようコンピュータを機能させるための機械学習器の機械学習方法であって、
    前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置が含まれる状態変数、及び、判定データとしての前記状態変数に対応した今所定の位置まで移動するべき移動対象物品の組み合わせによって構成される訓練データセットを複数入力して前記機械学習器を学習させる、機械学習方法。
  10. 複数の移動対象物品をマニピュレータにより保持して所定の位置まで移動する作業を行うモバイルマニピュレータの動作を制御する制御プログラムであって、
    前記モバイルマニピュレータの特定部位と前記移動対象物品との相対位置が含まれる状態変数、及び、判定データとしての前記状態変数に対応した今所定の位置まで移動するべき移動対象物品の組み合わせによって構成される訓練データセットを予め取得し、前記訓練データセットを複数入力して機械学習器を学習させるステップと、
    学習済みの前記機械学習器に前記状態変数を入力することによって、今所定の位置まで移動するべき移動対象物品を出力するステップと、をコンピュータに実行させる制御プログラム。
JP2019127781A 2019-07-09 2019-07-09 演算装置、機械学習方法及び制御プログラム Active JP7207207B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019127781A JP7207207B2 (ja) 2019-07-09 2019-07-09 演算装置、機械学習方法及び制御プログラム
DE102020114583.7A DE102020114583B4 (de) 2019-07-09 2020-06-02 Rechenvorrichtung, Maschinenlernverfahren und Speichermedium
CN202010498466.4A CN112207813A (zh) 2019-07-09 2020-06-04 运算装置、机器学习方法以及非暂时性存储介质
US16/897,567 US11633852B2 (en) 2019-07-09 2020-06-10 Computing device, machine learning method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019127781A JP7207207B2 (ja) 2019-07-09 2019-07-09 演算装置、機械学習方法及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2021011001A true JP2021011001A (ja) 2021-02-04
JP7207207B2 JP7207207B2 (ja) 2023-01-18

Family

ID=74059360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019127781A Active JP7207207B2 (ja) 2019-07-09 2019-07-09 演算装置、機械学習方法及び制御プログラム

Country Status (4)

Country Link
US (1) US11633852B2 (ja)
JP (1) JP7207207B2 (ja)
CN (1) CN112207813A (ja)
DE (1) DE102020114583B4 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6881268B2 (ja) * 2017-12-05 2021-06-02 トヨタ自動車株式会社 把持装置、把持判定方法および把持判定プログラム
US20220188625A1 (en) * 2020-12-11 2022-06-16 Poyen Hsieh Method and computer implemented system for generating layout plan using neural network
DE102021202759A1 (de) 2021-03-22 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks zum Steuern eines Roboters
US20230271319A1 (en) * 2022-02-28 2023-08-31 Denso Wave Incorporated Method of generating a learning model for transferring fluid from one container to another by controlling robot arm based on a machine-learned learning model, and a method and system for weighing the fluid
DE102022205011A1 (de) 2022-05-19 2023-11-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen eines Moments für einen Betrieb eines Roboters unter Verwendung eines Modells und Verfahren zum Einlernen des Modells

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10249765A (ja) * 1997-03-07 1998-09-22 Yaskawa Electric Corp 移動物体のハンドリング方法
JP2002113678A (ja) * 2000-10-06 2002-04-16 Seiko Instruments Inc トラッキング方法、及びトラッキングシステム
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2005088164A (ja) * 2003-09-19 2005-04-07 Denso Wave Inc ロボットの停止箇所決定方法及びロボットの停止箇所決定装置
JP2007216381A (ja) * 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
US20090210090A1 (en) * 2008-02-18 2009-08-20 Toyota Motor Engineering & Manufacturing North America, Inc. Robotic system and method for observing, learning, and supporting human activities
JP2016101612A (ja) * 2014-11-27 2016-06-02 トヨタ自動車株式会社 物品搬送用ロボット
US20180284760A1 (en) * 2017-03-28 2018-10-04 Amazon Technologies, Inc. Method and system for tele-operated inventory management system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010045272A1 (en) 2008-10-14 2010-04-22 Honda Motor Co., Ltd. Smoothed sarsa: reinforcement learning for robot delivery tasks
EP2216145B1 (en) * 2009-02-06 2011-06-08 Honda Research Institute Europe GmbH Learning and use of schemata in robotic devices
KR101686517B1 (ko) * 2009-05-22 2016-12-14 도요타지도샤 히가시니혼 가부시키가이샤 작업 지원 로봇 시스템
WO2012153629A1 (ja) * 2011-05-12 2012-11-15 株式会社Ihi 運動予測制御装置と方法
JP5908350B2 (ja) * 2012-06-21 2016-04-26 本田技研工業株式会社 行動制御システム
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9579789B2 (en) * 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9630317B2 (en) * 2014-04-03 2017-04-25 Brain Corporation Learning apparatus and methods for control of robotic devices via spoofing
US9272417B2 (en) 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
US9475198B2 (en) 2014-12-22 2016-10-25 Qualcomm Incorporated System and method for dynamic robot manipulator selection
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP6514166B2 (ja) * 2016-09-16 2019-05-15 ファナック株式会社 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
JP6514171B2 (ja) 2016-09-27 2019-05-15 ファナック株式会社 最適な物品把持経路を学習する機械学習装置、及び機械学習方法
JP6453922B2 (ja) * 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
JP6490132B2 (ja) * 2017-03-31 2019-03-27 ファナック株式会社 ロボットの制御装置、機械学習装置及び機械学習方法
JP6951659B2 (ja) * 2017-05-09 2021-10-20 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
JP6680730B2 (ja) * 2017-08-08 2020-04-15 ファナック株式会社 制御装置及び学習装置
CN108163436B (zh) * 2017-11-07 2019-05-03 北京翰宁智能科技有限责任公司 一种基于指令卡牌的物流或生产场所货物配送系统
US11465279B2 (en) * 2018-11-29 2022-10-11 X Development Llc Robot base position planning
CN109816725B (zh) * 2019-01-17 2023-03-14 合肥哈工慧拣智能科技有限公司 一种基于深度学习的单目相机物体位姿估计方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10249765A (ja) * 1997-03-07 1998-09-22 Yaskawa Electric Corp 移動物体のハンドリング方法
JP2002113678A (ja) * 2000-10-06 2002-04-16 Seiko Instruments Inc トラッキング方法、及びトラッキングシステム
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2005088164A (ja) * 2003-09-19 2005-04-07 Denso Wave Inc ロボットの停止箇所決定方法及びロボットの停止箇所決定装置
JP2007216381A (ja) * 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
US20090210090A1 (en) * 2008-02-18 2009-08-20 Toyota Motor Engineering & Manufacturing North America, Inc. Robotic system and method for observing, learning, and supporting human activities
JP2016101612A (ja) * 2014-11-27 2016-06-02 トヨタ自動車株式会社 物品搬送用ロボット
US20180284760A1 (en) * 2017-03-28 2018-10-04 Amazon Technologies, Inc. Method and system for tele-operated inventory management system

Also Published As

Publication number Publication date
JP7207207B2 (ja) 2023-01-18
CN112207813A (zh) 2021-01-12
DE102020114583B4 (de) 2022-03-17
US20210008717A1 (en) 2021-01-14
DE102020114583A1 (de) 2021-01-14
US11633852B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
JP7207207B2 (ja) 演算装置、機械学習方法及び制御プログラム
JP6963748B2 (ja) ロボットシステム及びロボットシステムの制御方法
CN103128729B (zh) 机器人装置和控制该机器人装置的方法
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
Rolley-Parnell et al. Bi-manual articulated robot teleoperation using an external RGB-D range sensor
JP7044047B2 (ja) ロボット
TW201718204A (zh) 機器人教示方法及機器臂控制裝置
JP2009274203A (ja) ロボット及びその協調作業制御方法
JPWO2016103303A1 (ja) 自走式関節ロボット
JP2011516283A (ja) ロボットシステムに教示する方法
Patidar et al. Survey of robotic arm and parameters
JP4976883B2 (ja) マニピュレータシステム
Kamali et al. Real-time motion planning for robotic teleoperation using dynamic-goal deep reinforcement learning
US20230117928A1 (en) Nonlinear trajectory optimization for robotic devices
JP5948914B2 (ja) ロボット制御装置、ロボット制御方法、ロボット制御プログラムおよびロボットシステム
CN111975763B (zh) 算术设备、控制程序、机器学习器、抓握装置和控制方法
JP2004025387A (ja) 多関節ロボットの負荷重量及び負荷重心位置の自動算出方法
CN114378827B (zh) 一种基于移动机械臂整体控制的动态目标跟踪抓取方法
Baek et al. Pre-grasp manipulation planning to secure space for power grasping
Shanmugasundar et al. Method of Trajectory Generation of a Generic Robot using Bresenham’ s Circle Algorithm
JP2006315128A (ja) ロボットハンドの持ち替え把持制御方法。
WO2022168609A1 (ja) 制御システム、動作計画装置、制御装置、動作計画及び制御方法、動作計画方法、並びに制御方法
Karunakaran et al. Trajectory Control for Differential Drive Mobile Manipulators
Devi et al. Integration of Artificial Intelligence into Operations and Monitoring of 3R Manipulator
WO2022162769A1 (ja) ロボットシステム、移動経路生成装置および移動経路生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R151 Written notification of patent or utility model registration

Ref document number: 7207207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151