JP2021181139A - 新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム - Google Patents

新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム Download PDF

Info

Publication number
JP2021181139A
JP2021181139A JP2020087808A JP2020087808A JP2021181139A JP 2021181139 A JP2021181139 A JP 2021181139A JP 2020087808 A JP2020087808 A JP 2020087808A JP 2020087808 A JP2020087808 A JP 2020087808A JP 2021181139 A JP2021181139 A JP 2021181139A
Authority
JP
Japan
Prior art keywords
simulation
robot
robot body
unit
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020087808A
Other languages
English (en)
Other versions
JP6921448B1 (ja
Inventor
直人 岩橋
Naoto Iwahashi
壮一 川野
Soichi Kawano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Luke System Co Ltd
Original Assignee
Luke System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Luke System Co Ltd filed Critical Luke System Co Ltd
Priority to JP2020087808A priority Critical patent/JP6921448B1/ja
Application granted granted Critical
Publication of JP6921448B1 publication Critical patent/JP6921448B1/ja
Publication of JP2021181139A publication Critical patent/JP2021181139A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】新規な物体を安定的に操作できるロボットの制御プログラムおよび制御方法、ならびに、物体操作システムを提供する。【解決手段】コンピュータを、操作対象物を操作することを示す操作命令を前記コンピュータが受信した際に、操作対象物が新規に操作する物体であるか否かを判定する判定部と、前記操作対象物が新規に操作する物体であると判定された場合に、センサによって取得された情報に基づく操作環境および前記操作対象物に関する情報と、予め学習された行動データと、を用いて、前記操作命令に応じたロボット本体による前記操作対象物の操作をシミュレーションするシミュレーション部と、前記シミュレーションを行った結果に基づき、前記操作命令に応じて前記操作対象物を操作するよう前記ロボット本体を実空間で制御する実操作制御部と、として機能させる、ロボット制御プログラムが提供される。【選択図】図2B

Description

本発明は、新規物体を操作するロボットの制御プログラムおよび制御方法、ならびに、新規物体操作する物体操作システムに関する。
一般に、特定の物体の操作に関するシミュレーションを予めオフラインで行って物理動作を予測し、その物体を操作することが行われている。例えば、工場等において、ロボットを用いて物を運搬することが広く行われている(例えば、特許文献1)。
特開2006−213526号公報
しかしながら、新規な物体に対して、このようなロボットが安定的に物体を操作できるとは限らない。また、近年は人工知能の発展が目覚ましいが、あらゆる物体に対して事前に学習を行っておくのは現実的ではない。
本発明の課題は、新規な物体を安定的に操作できるロボットの制御プログラムおよび制御方法、ならびに、物体操作システムを提供することである。
本発明の一態様によれば、コンピュータを、操作対象物を操作することを示す操作命令を前記コンピュータが受信した際に、操作対象物が新規に操作する物体であるか否かを判定する判定部と、前記操作対象物が新規に操作する物体であると判定された場合に、センサによって取得された情報に基づく操作環境および前記操作対象物に関する情報と、予め学習された行動データと、を用いて、前記操作命令に応じたロボット本体による前記操作対象物の操作をシミュレーションするシミュレーション部と、前記シミュレーションを行った結果に基づき、前記操作命令に応じて前記操作対象物を操作するよう前記ロボット本体を実空間で制御する実操作制御部と、として機能させる、ロボット制御プログラムが提供される。
前記コンピュータを、前記シミュレーション部による前記シミュレーションの結果を学習して新たな行動データとして登録する学習部として機能させてもよい。
前記学習部は、前記ロボット本体の実空間における操作の結果を学習して新たな行動データとして登録してもよい。
前記実操作制御部は、前記行動データを変えながら前記シミュレーションを複数回行った結果に基づき、前記命令に応じて前記操作対象物を操作するよう前記ロボット本体を制御してもよい。
前記実操作制御部は、前記シミュレーションの結果と、前記実操作制御部の制御によるロボット本体の状態と、が相違するか否かを所定の基準に応じて判断し、相違すると判断された場合には、前記ロボット本体による前記操作対象物の操作を停止させてもよい。
前記操作対象物の操作は、前記操作対象物を安定的に置くことであってもよい。
前記操作対象物の操作は、前記操作命令によって示される目的地まで前記操作対象物を運搬することであってもよい。
前記シミュレーションの結果、前記目的地までの移動に成功した結果が複数ある場合、前記実操作制御部は、前記目的地までの移動時間が最も短くなるシミュレーションで用いられた前記行動データに基づいて、前記ロボット本体を移動させてもよい。
前記シミュレーションの結果、前記目的地までの移動に成功した結果がない場合、前記シミュレーション部は、前記操作命令に応じた移動ができないと判断してもよい。
前記実操作制御部は、前記ロボット本体の移動中に、前記ロボット本体の移動が前記シミュレーションの結果と相違するか否かを所定の基準に応じて判断し、相違すると判断された場合には、前記ロボットの移動を停止させてもよい。
前記操作環境に関する情報は、前記目的地までの床面の情報を含み、前記操作対象物に関する情報は、前記操作対象物の重量を含んでもよい。
本発明の別の態様によれば、操作対象物を操作することを示す操作命令が受信された際に、操作対象物が新規に操作する物体であるか否かを判定し、シミュレーション部が、前記操作対象物が新規に操作する物体であると判定された場合に、センサによって取得された情報に基づく操作環境および前記操作対象物に関する情報と、予め学習された行動データと、を用いて、前記操作命令に応じたロボット本体による前記操作対象物の操作をシミュレーションし、実操作制御部が、前記シミュレーションを行った結果に基づき、前記操作命令に応じて前記操作対象物を操作するよう前記ロボット本体を実空間で制御する、ロボット制御方法が提供される。
本発明の別の態様によれば、センサと、ロボット本体と、操作対象物を操作することを示す操作命令が受信された際に、操作対象物が新規に操作する物体であるか否かを判定する判定部と、前記操作対象物が新規に操作する物体であると判定された場合に、前記センサによって取得された情報に基づく操作環境および操作対象物に関する情報と、予め学習された行動データと、を用いて、前記操作命令に応じた前記ロボット本体による前記操作対象物の操作をシミュレーションするシミュレーション部と、前記シミュレーションを行った結果に基づき、前記操作命令に応じて前記操作対象物を操作するよう前記ロボット本体を実空間で移動する実操作制御部と、を備える物体操作システムが提供される。
環境や操作対象物が変化する場合であっても安全な移動を実現できる。
本発明による意思決定プロセスを説明するフローチャート。 一実施形態に係る物体操作システムの概略ブロック図。 より詳細な物体操作システムのブロック図。 シミュレーションを実行する仮想空間における物体操作システムの概略ブロック図。 制御コンピュータ3の処理動作の一例を示すフローチャート。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
図1は、本発明による意思決定プロセスを説明するフローチャートである。何らかの行動を決定すべき状況になった時点で(ステップS21のYES)、十分な情報があるか否かを確認する(ステップS22)。十分な情報がある場合、物理シミュレータによる行動選択を行う(ステップS25)。一方、十分な情報がない場合(ステップS22のNO)、実世界の情報を取得する(ステップS23)。実世界の情報とは、操作対象となる物体(以下「操作対象物」という)についての情報や、操作環境についての情報である。そして、取得した情報を物理シミュレータに挿入し(ステップS24)、物理シミュレータによる行動選択を行う(ステップS25)。
本発明は、行動を決定すべき時点において十分な情報がない場合、言い換えると、予めオフラインで取得されている情報では足りない場合に、その場でリアルタイムに情報を取得する点に特徴がある。
本実施形態に係る物体操作システムは、主たる例として、新規な物体(すなわち、これまでに操作したことがない物体)を操作するロボットに関する。操作とは、例えば、1または複数の物体を目的地まで安定的に運搬することである。具体例として、水が入ったコップを水がこぼれないよう目的地まで運搬することや、トレイに乗ったコップをコップが倒れないよう目的地まで運搬することが挙げられる。あるいは、操作とは、例えば、物を安定的に置くことである。具体例として、任意形状の物体を倒すことなく安定状態で机上に置くことが挙げられる。
図2Aは、一実施形態に係る物体操作システムの概略ブロック図である。物体操作システムは、ロボット本体1と、センサ2と、制御コンピュータ3とを備えている。これらが一体となってロボットを構成してもよいし、ロボット本体1とは別に制御コンピュータ3が設けられてロボット本体1が遠隔操作されてもよい。
ロボット本体1は、制御コンピュータ3からの制御に応じて、物体を操作する機能、具体例として物体を保持したり、保持した物体を置いたり、移動したりする機能を有する。
センサ2は、実世界の情報として、操作環境や操作対象物に関する情報を取得し(以下、センサ2が取得した情報を「センサ取得情報」という)、制御コンピュータ3に送信する。センサ2は、ロボット本体1に取り付けられるのが望ましいが、ロボット本体1がある環境に固定されていてもよい。
制御コンピュータ3は、認識部42、抽出部52、学習部53、シミュレーション部60および実操作制御部70を実現するためのソフトウェア(プログラム)を有し、また、処理に用いられる物体識別データベース41および学習済み行動データベース51を有している。これらの詳細は図2を用いて詳述する。
制御コンピュータ3は、ロボット本体1が操作対象物を操作する際、十分な情報がない(図1のステップS22のNO)場合にその場でセンサ取得情報を受信してシミュレーションを行うことによって、ロボット本体1を制御する。具体的には、制御コンピュータ3は、操作命令およびセンサ取得情報を用いてロボット本体1による操作対象物の操作を仮想空間でシミュレーションし、シミュレーション結果に基づいてロボット本体1による操作対象物の操作を制御する。さらに、シミュレーション結果および実際のロボット本体1による操作の両方を学習し、その後のシミュレーションやロボット本体1の移動制御に活用する。
以下、より具体的に説明する。
図2Bは、より詳細な物体操作システムのブロック図である。図示のように、制御コンピュータ3は、判定部30、物体認識部40、物理的世界モデル学習部50、シミュレーション部60および実操作制御部70を有する。
判定部30は、外部から操作命令(操作対象物を操作することを示す命令)が入力された際、後述する物体識別データベース41を参照するなどにより、操作対象物が新規に操作する物体であるか否かを判定する。そして、操作対象物が新規である場合、十分な情報がない(図1のステップS22のNO)と判断する。
物体認識部40は、物体識別データベース41と、認識部42とを有する。また、物体認識部40には、外部から操作命令が入力されるとともに、センサ2からセンサ取得情報が入力される。
物体識別データベース41には、機械学習や深層学習(例えば、You only Look Once (YOLO)やSingle Shot MultiBox Detector (SSD))等によって予め学習された物体識別データが登録されている。
認識部42は、機械学習や深層学習を使い、センサ取得情報および物体識別データベース41から、シミュレーションに必要となる操作環境に関する情報および操作対象物に関する情報を認識する。操作環境に関する情報および操作対象物の情報は、物理的世界モデル学習部50およびシミュレーション部60に送信される。
物理的世界モデル学習部50は、学習済み行動データベース51と、抽出部52と、学習部53とを有する。
学習済み行動データベース51には、予め学習された行動データが登録されている。行動データとは、ロボット本体1を移動させるのに必要なデータであり、加速度、定速度、減速度等のパラメータを含み得る。
抽出部52は、認識部42からの操作環境および操作対象物に関する情報に基づいて、学習済み行動データベース51に登録された行動データのうち、操作に成功する可能性が高い行動データを複数抽出する。抽出された行動データはシミュレーション部60に送信される。
学習部53は、後述するシミュレーションの結果を学習し、新たな行動データを学習済み行動データベース51に登録する。また、学習部53は、後述するロボット本体1の実空間における操作の結果を学習し、新たな行動データを学習済み行動データベース51に登録する。新たに登録された行動データは、その後に抽出部52によって抽出されてシミュレーションに用いられ得る。
シミュレーション部60は、操作対象物が新規に操作する物体であると判定された場合に、センサ取得情報に基づき、操作命令に応じたロボット本体1による操作をシミュレーションするものであり、シミュレーション環境設定部61と、シミュレーションパラメータ設定部62と、シミュレーション実行部63と、シミュレーション観察部64と、ループ判断部65とを有する。
シミュレーション環境設定部61は、認識部42からの操作環境および操作対象物に関する情報に基づいて、シミュレーションを実行する仮想空間にロボット本体1、ならびに、操作環境および操作対象物についての情報を設定する。
シミュレーションパラメータ設定部62は、抽出部52からの行動データに基づいて、仮想空間でロボット本体1を制御するためのパラメータを設定する。
シミュレーション実行部63は、シミュレーションパラメータ設定部62によって設定されたパラメータに基づき、シミュレーション環境設定部61によってロボット本体1等が配置された仮想空間におけるロボット本体1による操作を物理演算し、ロボット本体1の状態をシミュレーションする。
シミュレーション観察部64は仮想空間におけるロボット本体1の状態を観察する。具体的には、シミュレーション観察部64は、安定的に操作対象物を操作できたか否かを観察し、できた場合は成功、できなかった場合は失敗と判定する。観察の結果はループ判断部65に送信される。
ループ判断部65は観察されたシミュレーション結果を学習部53に送信する。これにより、学習部53は、どのような操作対象物を、どのような操作環境で操作できるか否かを学習できる。学習の結果が行動データとして新たに学習済み行動データベース51に登録される。また、ループ判断部65は、シミュレーションの実行回数をカウントし、行動データを変えながらシミュレーションの実行および観察を所定回繰り返す。
所定回繰り返したが、成功と判定されたシミュレーション結果がない場合、ループ判断部65は操作命令に応じた操作ができないと判断し、命令を終了する。成功と判定されたシミュレーション結果がある場合、ループ判断部65は当該シミュレーションに用いられた行動データとシミュレーション結果を実操作制御部70に送信する。なお、シミュレーション結果のうち2以上が成功と判定された場合、ループ判断部65は1つを選択すればよい。
実操作制御部70は、シミュレーション結果に基づいて、操作命令に応じてロボット本体1に操作対象物を操作させる。実操作制御部70は、制御パラメータ設定部71と、実操作観察部72とを有する。また、実操作制御部70には、シミュレーション部60から行動データおよびシミュレーション結果が入力され、センサ2からセンサ取得情報が入力される。
制御パラメータ設定部71は、シミュレーション部60からの行動データに基づき、ロボット本体1が操作対象物を操作するために必要な制御パラメータを設定する。この制御パラメータに応じてロボット本体1は操作対象物を操作する。操作の様子はセンサ2によって検知される。
実操作観察部72は、センサ取得情報を用いて、実空間におけるロボット本体1の状態を観察する。そして、実操作観察部72は、シミュレーション部60によって観察されたシミュレーション結果と、センサ取得情報に基づく実空間におけるロボット本体1の状態とを対比し、両者が大きく相違するか否かを所定に基準に応じて判断する。具体例として、特定の時刻におけるロボット本体1の位置が、シミュレーションと実空間とで所定距離以上ずれる場合に、実操作観察部72は両者が相違すると判断する。この場合、実操作観察部72はロボット本体1による操作対象物の操作を停止させ、命令を終了する。両者が相違することなくロボット本体1が操作を完了した場合も、実操作観察部72は命令を終了する。
ロボット本体1の操作対象物体を操作している途中で停止された場合であっても、操作を完了した場合であっても、実操作観察部72は実空間における操作の結果を学習部53に送信する。これにより、学習部53は、どのような操作環境において、どのような操作対象物の操作に成功するか否かを学習できる。学習の結果が行動データとして新たに学習済み行動データベース51に登録される。
図3は、シミュレーションを実行する仮想空間における物体操作システムの概略ブロック図である。このシミュレーションは、図1に示す実空間における物体操作システムを模したものであり、仮想ロボット本体1Vと、仮想センサ2Vと、仮想制御コンピュータ3Vとを備えている。これらは、図1のロボット本体1、センサ2および制御コンピュータ3とそれぞれ対応するが、シミュレーション機能は不要である。また、仮想センサ2Vの出力が、仮想空間における仮想ロボット本体1Vによる操作の状態を観察したもの、すなわち、図2のシミュレーション観察部64の出力に相当する。
以下、操作の一例として、操作対象物を所定の目的地まで運搬することを説明する。この場合、ロボット本体1は移動機能を有する。具体的には、ロボット本体1は、2輪のタイヤで移動してもよいし、2足あるいは4足などの多足歩行で移動してもよい。より具体的には、ロボット本体1はタイヤや足を駆動するモーター(不図示)を有し、制御コンピュータ3からの制御に応じてロボット本体1は移動する。また、ロボット本体1は運搬対象物を保持する機能を有する。
また、センサ2は、ロボット本体1の現在地から目的地までの実空間(の少なくとも一部)を撮影するカメラ、床面の凹凸を計測するLiDAR(レーザーレンジファインダ)、操作対象物の重量を計測する重量センサを含み得る。その他、センサ2は、深度センサ、トラッキングカメラ、加速度センサ、ジャイロセンサ等を含んでいてもよい。
なお、運搬を行うには、ロボットが操作対象物を持ち上げ、これを保持した状態で移動し、目的地において下ろすこととなるが、以下では保持した状態で移動する点を中心に説明する。
図4は、制御コンピュータ3の処理動作の一例を示すフローチャートである。所定の目的地までの移動を示す操作命令の受信(ステップS1)によって制御コンピュータ3は動作を開始し、センサ取得情報が制御コンピュータ3に入力される。なお、目的地は物体操作システムが有するカメラで撮影可能な範囲内に設定されるものとする(最終的な目的地がカメラの撮影範囲内にない場合、ロボットの移動を管理する上位のシステムによって、カメラの撮影範囲において移動経路を分割すればよい)。そして、目的地までの移動経路に障害物はないが、床面は必ずしも平坦ではなく凹凸がある(例えば、部屋と部屋の境目の段差や、経年劣化によるもの)ものとする。
操作命令が受信されると、判定部30は、操作対象物が新規に操作する物体であるか否か、すなわち、情報が十分であるか否かを判定する(ステップS2)。情報が十分である場合(ステップS2のYES)、ステップS4に進む。
十分な情報がない場合(ステップS2のNO)、認識部42は、センサ2からセンサ取得情報を取得する。そして、認識部42は、センサ取得情報に基づき、物体識別データベース41から、シミュレーションに必要となる操作環境および操作対象物に関する情報を認識する(ステップS3)。操作環境に関する情報とは、床面の凹凸の位置、床面の材質(摩擦係数パラメータ)、傾斜角等である。また、操作対象物に関する情報とは、その重量、形状、重心等である。これにより、シミュレーション環境設定部61は、シミュレーションを実行する仮想空間にロボット本体1、運搬対象物、目的地までの床面を配置する。
また、抽出部52は、認識された情報に基づき、目的地までの移動に成功する可能性が高い複数の行動データを学習済み行動データベース51から抽出する(ステップS4)。これにより、シミュレーションパラメータ設定部62は抽出部52からの行動データに基づいて、仮想空間でロボット本体1を移動させるためのパラメータを設定する。
そして、シミュレーション部60は操作環境および操作対象物に関する情報ならびに行動データを用いてシミュレーションを実行する(ステップS5)。
具体的には、シミュレーション実行部63は、シミュレーションパラメータ設定部62によって設定されたパラメータに基づき、シミュレーション環境設定部61によってロボット本体1等が配置された仮想空間におけるロボット本体1の移動を物理演算し、ロボット本体1の状態をシミュレーションする。
そして、シミュレーション観察部64は、仮想空間における目的地まで運搬対象物を安定的に運搬できたか否か(運搬対象物が落下しないかどうか、ロボット本体1が転倒しないかどうか等)を観察し、できた場合は成功、できなかった場合は失敗と判定する。また、シミュレーション観察部64は、成功である場合、目的地までの移動時間を観察する。観察の結果はループ判断部65に送信される。
例えば、水が入ったグラスが載ったトレイが運搬対象物である場合、シミュレーション観察部64は、グラスがトレイ上で倒れないか、グラス内の水がこぼれないか等を観察して、無事に運搬できたか否かを判定する。
シミュレーションにおいて、ロボット本体1の状態が観察され、学習部53による学習が行われて学習済み行動データベース51が更新される(ステップS6)。シミュレーション部60は以上のシミュレーションを行動データを変えながら所定回繰り返す(ステップS7)。
所定回の繰り返しが完了したが(ステップS7のYES)、シミュレーション結果が全て失敗であった場合(ステップS8のNO)、シミュレーション部60は操作命令に応じた目的地までの移動ができないと判断して命令を終了する。
所定回の繰り返しが完了し(ステップS7のYES)、シミュレーション結果の1または複数が成功であった場合(ステップS8のYES)、シミュレーション部60は目的地までの移動時間が最短となったシミュレーションで用いられた行動データを選択する(ステップS9)。そして、この行動データに基づいて実操作制御部70はロボット本体1を実空間で移動させる(ステップS10)。ロボット本体1の移動状態はセンサ2によって取得される。
ロボット本体1の移動開始から目的地到達までの間、実操作制御部70は、センサ取得情報から得られる実空間におけるロボット本体1の状態と、シミュレーション結果とが相違するか否かを、所定の判断基準を用いて判断する(ステップS11)。なお、この判断は所定時間間隔で行ってもよいし、ロボット本体1が所定距離移動する度に行ってもよい。
相違すると判断された場合(ステップS11のYES)、実操作制御部70はロボット本体1の移動を停止する(ステップS12)。相違しない場合(ステップS11のNO)、ロボット本体1が目的地に到達するまでロボット本体1を移動させる(ステップS13)。
そして、学習部53は、実空間におけるロボット本体1の移動の結果を学習し、学習済み行動データベース51を更新する(ステップS14)。以上により、操作命令に対する対応が終了する。
このように、本実施形態では、新規な物体を操作する場合には、その時点において、センサ2で取得された操作環境および操作対象物の情報を用いてシミュレーションを行って行動選択を行う。そのため、これまで操作したことがない新規物体の操作が可能となる。
操作の一例として、操作対象物を運搬する際、センサ2で取得された目的地までの操作環境および操作対象物の情報と、学習済みの行動データを用いてミュレーションを複数回行った上でロボット本体1を移動させる。そのため、操作環境や操作対象物が変化した場合でも、操作対象物を保持したロボット本体1を目的地まで安全に移動させることができる。また、シミュレーション結果および実際の移動の結果を学習して行動データを更新するため、その後のロボット本体1の移動がより安全に行えるようになる。
また、シミュレーションを複数回行うことで、実空間でロボット本体1を移動させるための最適な行動データが得られるのに加え、今回の操作対象物および操作環境に適した行動データを学習することができる。
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。
1 ロボット本体
2 センサ
3 制御コンピュータ
30 判定部
40 物体認識部
41 物体識別データベース
42 認識部
50 物理的世界モデル学習部
51 学習済み行動データベース
52 抽出部
53 学習部
60 シミュレーション部
61 シミュレーション環境設定部
62 シミュレーションパラメータ設定部
63 シミュレーション実行部
64 シミュレーション観察部
65 ループ判断部
70 実操作制御部
71 制御パラメータ設定部
72 実操作観察部
1V ロボット本体
2V センサ
3V 制御コンピュータ
70V 仮想動制御部

Claims (13)

  1. コンピュータを、
    操作対象物を操作することを示す操作命令を前記コンピュータが受信した際に、操作対象物が新規に操作する物体であるか否かを判定する判定部と、
    前記操作対象物が新規に操作する物体であると判定された場合に、センサによって取得された情報に基づく操作環境および前記操作対象物に関する情報と、予め学習された行動データと、を用いて、前記操作命令に応じたロボット本体による前記操作対象物の操作をシミュレーションするシミュレーション部と、
    前記シミュレーションを行った結果に基づき、前記操作命令に応じて前記操作対象物を操作するよう前記ロボット本体を実空間で制御する実操作制御部と、として機能させる、ロボット制御プログラム。
  2. 前記コンピュータを、前記シミュレーション部による前記シミュレーションの結果を学習して新たな行動データとして登録する学習部として機能させる、請求項1に記載のロボット制御プログラム。
  3. 前記学習部は、前記ロボット本体の実空間における操作の結果を学習して新たな行動データとして登録する、請求項2に記載のロボット制御プログラム。
  4. 前記実操作制御部は、前記行動データを変えながら前記シミュレーションを複数回行った結果に基づき、前記命令に応じて前記操作対象物を操作するよう前記ロボット本体を制御する、請求項1に記載のロボット制御プログラム。
  5. 前記実操作制御部は、前記シミュレーションの結果と、前記実操作制御部の制御によるロボット本体の状態と、が相違するか否かを所定の基準に応じて判断し、相違すると判断された場合には、前記ロボット本体による前記操作対象物の操作を停止させる、請求項1に記載のロボット制御プログラム。
  6. 前記操作対象物の操作は、前記操作対象物を安定的に置くことである、請求項1乃至5のいずれかに記載のロボット制御プログラム。
  7. 前記操作対象物の操作は、前記操作命令によって示される目的地まで前記操作対象物を運搬することである、請求項1乃至5のいずれかに記載のロボット制御プログラム。
  8. 前記シミュレーションの結果、前記目的地までの移動に成功した結果が複数ある場合、前記実操作制御部は、前記目的地までの移動時間が最も短くなるシミュレーションで用いられた前記行動データに基づいて、前記ロボット本体を移動させる、請求項7に記載のロボット制御プログラム。
  9. 前記シミュレーションの結果、前記目的地までの移動に成功した結果がない場合、前記シミュレーション部は、前記操作命令に応じた移動ができないと判断する、請求項7または8に記載のロボット制御プログラム。
  10. 前記実操作制御部は、前記ロボット本体の移動中に、前記ロボット本体の移動が前記シミュレーションの結果と相違するか否かを所定の基準に応じて判断し、相違すると判断された場合には、前記ロボットの移動を停止させる、請求項7乃至9のいずれかに記載のロボット制御プログラム。
  11. 前記操作環境に関する情報は、前記目的地までの床面の情報を含み、
    前記操作対象物に関する情報は、前記操作対象物の重量を含む、請求項7乃至10のいずれかに記載のロボット制御プログラム。
  12. 判定部が、操作対象物を操作することを示す操作命令が受信された際に、操作対象物が新規に操作する物体であるか否かを判定し、
    シミュレーション部が、前記操作対象物が新規に操作する物体であると判定された場合に、センサによって取得された情報に基づく操作環境および前記操作対象物に関する情報と、予め学習された行動データと、を用いて、前記操作命令に応じたロボット本体による前記操作対象物の操作をシミュレーションし、
    実操作制御部が、前記シミュレーションを行った結果に基づき、前記操作命令に応じて前記操作対象物を操作するよう前記ロボット本体を実空間で制御する、ロボット制御方法。
  13. センサと、
    ロボット本体と、
    操作対象物を操作することを示す操作命令が受信された際に、操作対象物が新規に操作する物体であるか否かを判定する判定部と、
    前記操作対象物が新規に操作する物体であると判定された場合に、前記センサによって取得された情報に基づく操作環境および操作対象物に関する情報と、予め学習された行動データと、を用いて、前記操作命令に応じた前記ロボット本体による前記操作対象物の操作をシミュレーションするシミュレーション部と、
    前記シミュレーションを行った結果に基づき、前記操作命令に応じて前記操作対象物を操作するよう前記ロボット本体を実空間で移動する実操作制御部と、を備える物体操作システム。
JP2020087808A 2020-05-20 2020-05-20 新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム Active JP6921448B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020087808A JP6921448B1 (ja) 2020-05-20 2020-05-20 新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020087808A JP6921448B1 (ja) 2020-05-20 2020-05-20 新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム

Publications (2)

Publication Number Publication Date
JP6921448B1 JP6921448B1 (ja) 2021-08-18
JP2021181139A true JP2021181139A (ja) 2021-11-25

Family

ID=77269530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020087808A Active JP6921448B1 (ja) 2020-05-20 2020-05-20 新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム

Country Status (1)

Country Link
JP (1) JP6921448B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023120728A1 (ja) * 2021-12-24 2023-06-29 京セラ株式会社 ロボット制御装置及びロボット制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255989A (ja) * 2002-03-06 2003-09-10 Sony Corp 学習装置及び学習方法並びにロボット装置
JP2012066378A (ja) * 2010-09-22 2012-04-05 Toyota Motor Engineering & Manufacturing North America Inc ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
JP2016196052A (ja) * 2015-04-02 2016-11-24 トヨタ自動車株式会社 物品搬送ロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255989A (ja) * 2002-03-06 2003-09-10 Sony Corp 学習装置及び学習方法並びにロボット装置
JP2012066378A (ja) * 2010-09-22 2012-04-05 Toyota Motor Engineering & Manufacturing North America Inc ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
JP2016196052A (ja) * 2015-04-02 2016-11-24 トヨタ自動車株式会社 物品搬送ロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023120728A1 (ja) * 2021-12-24 2023-06-29 京セラ株式会社 ロボット制御装置及びロボット制御方法

Also Published As

Publication number Publication date
JP6921448B1 (ja) 2021-08-18

Similar Documents

Publication Publication Date Title
US11724398B2 (en) Efficient robot control based on inputs from remote client devices
CN111587408B (zh) 机器人导航和对象跟踪
Nguyen et al. Help, anna! visual navigation with natural multimodal assistance via retrospective curiosity-encouraging imitation learning
US10955827B2 (en) Controller and machine learning device for controlling a conveying machine to optimize conveyance of an article
US20220105624A1 (en) Efficient adaption of robot control policy for new task using meta-learning based on meta-imitation learning and meta-reinforcement learning
US20200046169A1 (en) Robot system and control method of the same
CN107077659A (zh) 一种智能库存管理系统、服务器、方法、终端和程序产品
JP2018167031A (ja) コンポーネントを操作する、動かす、および/または姿勢変更する移動エージェント
US20220331962A1 (en) Determining environment-conditioned action sequences for robotic tasks
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
JP7154823B2 (ja) 情報処理装置、ロボット制御装置、情報処理方法及びプログラム
CN108415254B (zh) 基于深度q网络的废品回收机器人控制方法
CN102177478A (zh) 对机器人系统进行教示的方法
JP2019150904A (ja) 情報処理装置及び仕分システム
JP6921448B1 (ja) 新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム
CN113076615A (zh) 基于对抗式深度强化学习的高鲁棒性机械臂操作方法及系统
CN113031437A (zh) 一种基于动态模型强化学习的倒水服务机器人控制方法
US20220314432A1 (en) Information processing system, information processing method, and nonvolatile storage medium capable of being read by computer that stores information processing program
CN112633187B (zh) 基于图像分析的机器人自动搬运方法、系统和存储介质
KR102156231B1 (ko) 혼재 환경에서의 머니퓰레이터 제어장치, 시스템 및 방법
CN113916254A (zh) 一种停靠式抓捕的航天器自主交会对接试验方法
Ohashi et al. Cooperative transportation of a rod using mobile agents
Chen et al. Robot control in human environment using deep reinforcement learning and convolutional neural network
Schwartzwald et al. Sim-to-real with domain randomization for tumbling robot control
López García et al. A First CNN-based approach towards autonomous flight for object lifting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6921448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150