JP7441335B2 - 動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム - Google Patents

動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム Download PDF

Info

Publication number
JP7441335B2
JP7441335B2 JP2022574891A JP2022574891A JP7441335B2 JP 7441335 B2 JP7441335 B2 JP 7441335B2 JP 2022574891 A JP2022574891 A JP 2022574891A JP 2022574891 A JP2022574891 A JP 2022574891A JP 7441335 B2 JP7441335 B2 JP 7441335B2
Authority
JP
Japan
Prior art keywords
motion
target
robot arm
position information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022574891A
Other languages
English (en)
Other versions
JPWO2022153373A1 (ja
Inventor
吉平 松田
拓哉 志鷹
裕規 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Publication of JPWO2022153373A1 publication Critical patent/JPWO2022153373A1/ja
Application granted granted Critical
Publication of JP7441335B2 publication Critical patent/JP7441335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本開示は、動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラムに関する。
従来より、動作装置の目標動作を生成する技術が知られている。例えば、特許文献1には、動作装置としてのロボットアームが行うべき動作を生成する装置が開示されている。この装置は、機械学習によって得られたモデルを用いて、画像データ及びロボットアームの状態情報に基づいてロボットアームの軌道を生成し、ロボットアームを軌道に従って動作させる。
特許第6792230号公報
このような機械学習によって得られたモデルを用いて目標動作を生成する場合、生成される目標動作が実際に所望される動作に合致することが望ましい。しかし、生成される目標動作が所望される動作に合致しない場合も起こり得る。そこで、目標動作を生成する際の正確性を向上させるために様々な改良がなされている。しかしながら、その改良は発展の途上であり、まだまだ改善の余地がある。
本開示は、かかる点に鑑みてなされたものであり、その目的とするところは、目標動作を生成する際の正確性を向上させることにある。
本開示の動作生成装置は、動作装置が配置された空間である配置空間の空間情報を取得する空間情報取得部と、前記配置空間における前記動作装置の位置情報を取得する位置情報取得部と、ニューラルネットワークを含んだ動作生成モデルを用いて、前記空間情報取得部によって取得された前記空間情報と前記位置情報取得部によって取得された前記位置情報とに基づいて前記動作装置の目標動作を生成する動作生成部とを備え、前記動作生成モデルは、前記配置空間に対応した位置関係を有する特徴マップを前記空間情報に基づいて生成し、前記特徴マップのうち前記位置情報に対応する位置の特徴量を抽出又は重く重みづけして前記目標動作を生成する。
本開示のロボットシステムは、前記動作生成装置と、前記動作装置としてのロボットとを備える。
本開示の動作装置の目標動作を生成する動作生成方法は、前記動作装置が配置された空間である配置空間の空間情報を取得することと、前記配置空間における前記動作装置の位置情報を取得することと、ニューラルネットワークを含んだ動作生成モデルを用いて、前記空間情報と前記位置情報とに基づいて前記動作装置の目標動作を生成することとを含み、前記動作生成モデルは、前記配置空間に対応した位置関係を有する特徴マップを前記空間情報に基づいて生成し、前記特徴マップのうち前記位置情報に対応する位置の特徴量を抽出又は重く重みづけして前記目標動作を生成する。
本開示の動作生成プログラムは、動作装置の目標動作を生成するためにコンピュータに、前記動作装置が配置された空間である配置空間における前記動作装置の位置情報を取得する機能と、ニューラルネットワークを含んだ動作生成モデルを用いて、前記配置空間の空間情報と前記位置情報とに基づいて前記動作装置の目標動作を生成する機能とを実現させ、前記動作生成モデルは、前記配置空間に対応した位置関係を有する特徴マップを前記空間情報に基づいて生成し、前記特徴マップのうち前記位置情報に対応する位置の特徴量を抽出又は重く重みづけして前記目標動作を生成する。
前記動作生成装置によれば、目標動作を生成する際の正確性を向上させることができる。
前記ロボットシステムによれば、目標動作を生成する際の正確性を向上させることができる。
前記動作生成方法によれば、目標動作を生成する際の正確性を向上させることができる。
前記動作生成プログラムによれば、目標動作を生成する際の正確性を向上させることができる。
図1は、ロボットシステムの構成を示す模式図である。 図2は、ロボット制御装置及び制御装置の概略的なハードウェア構成を示す図である。 図3は、制御部の制御系統の構成を示すブロック図である。 図4は、動作生成モデルのCNNの模式図である。 図5は、特徴マップの模式図である。 図6は、ロボットシステムにおけるロボットアームの動作生成処理を示すフローチャートである。 図7は、ロボットアームの第1動作を示す模式図である。
以下、例示的な実施形態を図面に基づいて詳細に説明する。図1は、ロボットシステム100の構成を示す模式図である。
ロボットシステム100は、ロボット1と、ロボット1の動作を生成する動作生成装置3とを備えている。動作生成装置3は、三次元ビジョンセンサ4と、制御装置5とを備えている。ロボットシステム100では、制御装置5が三次元ビジョンセンサ4の検出結果を参照してロボット1の動作を制御する。
この例では、ロボット1は、コンテナ91内の特定の物体を取り出して、所定の載置台92に載置する。コンテナ91内には、複数の物体、例えば、物体A及び物体Bが収容されている。
ロボット1は、この例では、産業用ロボットである。ロボット1は、ロボットアーム12と、ロボット1の全体を制御するロボット制御装置2とを有している。ロボットアーム12は、エンドエフェクタとしてのハンド14を有している。ロボットアーム12は、ハンド14によって物体を把持する。ロボット1は、動作装置の一例であり、より具体的には、ロボットアーム12が動作装置の一例である。
ロボット1が配置される空間には、直交3軸のロボット座標系が規定されている。例えば、上下方向にZ軸が設定され、水平方向に互いに直交するX軸及びY軸が設定される。
ロボットアーム12は、三次元状に動作するように構成されている。具体的には、ロボットアーム12は、少なくとも3自由度の並進を含む動作を行うように構成されている。この例では、ロボットアーム12は、垂直多関節型のロボットアームである。ロボットアーム12は、ベース10に支持されている。ロボットアーム12は、複数のリンクと、複数のリンクを接続する複数の関節と、複数の関節を回転駆動するサーボモータとを有している。
詳しくは、ロボットアーム12は、ベース10に連結された第1リンク12aと、第1リンク12aに連結された第2リンク12bと、第2リンク12bに連結された第3リンク12cと、第3リンク12cに連結された第4リンク12dと、第4リンク12dに連結された第5リンク12eとを有している。
詳しくは、ベース10と第1リンク12aとは、鉛直方向に延びる軸回りに回転可能な第1関節13aを介して互いに連結されている。第1リンク12aと第2リンク12bとは、水平方向に延びる軸回りに回転可能な第2関節13bを介して互いに連結されている。第2リンク12bと第3リンク12cとは、水平方向に延びる軸回りに回転可能な第3関節13cを介して互いに連結されている。第3リンク12cと第4リンク12dとは、第4リンク12dの軸心(即ち、第4リンク12dが延びる方向)回りに回転可能な第4関節13dを介して互いに連結されている。第4リンク12dと第5リンク12eとは、第4リンク12dの軸心と直交する軸回りに回転可能な第5関節13eを介して互いに連結されている。
ロボットアーム12の先端部、即ち、第5リンク12eには、ハンド14が連結されている。第5リンク12eとハンド14とは、所定の軸回りに回転可能に第6関節13fを介して互いに連結されている。ハンド14は、開閉するように構成された2本の指14aを有している。2本の指14aは、エアシリンダ等のアクチュエータによって開閉駆動される。
ロボットアーム12は、各関節を回転駆動するサーボモータ15(図2参照)を有している。各サーボモータ15は、エンコーダ15a(図2参照)を有している。
このように構成されたロボットアーム12は、X軸、Y軸及びZ軸方向への並進動作、並びにX軸、Y軸及びZ軸回りの回転動作を行うように構成されている。
図2は、ロボット制御装置2及び制御装置5の概略的なハードウェア構成を示す図である。ロボット制御装置2は、制御装置5と信号及び指令等の送受信を行う。ロボット制御装置2は、ロボットアーム12のサーボモータ15及びハンド14を制御する。例えば、ロボット制御装置2は、制御装置5の指令に応じて、サーボモータ15に電流を供給する。このとき、ロボット制御装置2は、エンコーダ15aの出力に基づいて供給電流をフィードバック制御する。また、ロボット制御装置2は、ハンド14のアクチュエータを制御することによって2本の指14aを開閉させる。
ロボット制御装置2は、制御部21と、記憶部22と、メモリ23とを有している。
制御部21は、ロボット制御装置2の全体を制御する。制御部21は、各種の演算処理を行う。例えば、制御部21は、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部21は、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部22は、制御部21で実行されるプログラム及び各種データを格納している。記憶部22は、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ23は、データ等を一時的に格納する。例えば、メモリ23は、揮発性メモリで形成される。
三次元ビジョンセンサ4は、ロボットアーム12が配置された配置空間の空間情報を取得する。空間情報は、配置空間における物体の位置及び形状の情報を含む。三次元ビジョンセンサ4は、三次元の空間情報を取得する。例えば、三次元ビジョンセンサ4は、コンテナ91及び載置台92を上方から、コンテナ91、載置台92及びコンテナ91内の物体の位置及び形状を計測する。三次元ビジョンセンサ4は、コンテナ91、載置台92及びコンテナ91内の物体の位置及び形状を点群データの形式で出力する。三次元ビジョンセンサ4は、計測結果を空間情報として制御装置5へ出力する。三次元ビジョンセンサ4は、空間情報取得部の一例である。
制御装置5は、ロボットアーム12の目標動作を生成し、それに応じた指令をロボット制御装置2へ出力する。この例では、ロボットアーム12が他の物体との干渉を回避しながら開始位置から目標位置に向かって移動する動作が目標動作である。より具体的には、ロボットアーム12がコンテナ91内から所定の物体Aを取り出し、その物体Aを載置台92まで搬送するピックアップ動作を制御装置5がロボットアーム12に実行させる。制御装置5は、ピックアップ動作をロボットアーム12が物体Aを取りに行くまでの第1動作とロボットアーム12が物体Aをコンテナ91から載置台92まで搬出する第2動作とに分けてロボットアーム12に実行させる。
制御装置5は、ロボット制御装置2と信号及び情報等の送受信を行う。制御装置5には、三次元ビジョンセンサ4の検出結果が入力される。制御装置5は、図2に示すように、制御部51と、記憶部52と、メモリ53とを有している。尚、図示を省略するが、制御装置5は、動作生成に関する設定等を行うためにユーザが操作する入力操作部と、設定内容を表示するディスプレイとをさらに有していてもよい。
制御部51は、制御装置5の全体を制御する。制御部51は、各種の演算処理を行う。例えば、制御部51は、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部51は、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部52は、制御部51で実行されるプログラム及び各種データを格納している。例えば、記憶部52は、ロボットアーム12の目標動作を生成する動作生成プログラム58及び動作生成モデル6が格納されている。記憶部52は、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ53は、データ等を一時的に格納する。例えば、メモリ53は、揮発性メモリで形成される。
図3は、制御部51の制御系統の構成を示すブロック図である。制御部51は、記憶部52から動作生成プログラム58をメモリ53に読み出して展開することによって、各種機能を実現する。具体的には、制御部51は、位置情報取得部54と動作生成部56と動作指令部57として機能する。
位置情報取得部54は、配置空間における(即ち、ロボット座標系における)ロボットアーム12の位置情報を取得する。位置情報は、目標動作におけるロボットアーム12の開始位置を含む。例えば、ロボットアーム12の現在位置が開始位置となる場合には、位置情報取得部54は、ロボットアーム12の現在位置を取得する。具体的には、位置情報取得部54は、各エンコーダ15aの検出結果に基づいてロボットアーム12の現在位置を求める。位置情報取得部54は、各エンコーダ15aの検出結果から各関節の回転角を得ることができる。ロボットアーム12の各リンク及びハンドの寸法は既知である。そのため、位置情報取得部54は、各関節の回転角と各リンク及びハンドの寸法とに基づいて、ロボットアーム12の任意の部分の位置を求めることができる。この例では、位置情報取得部54は、ロボットアーム12の開始位置として、ハンド14の位置と第3関節13cの位置とを求める。ハンド14の位置は、例えば、2本の指14aの先端の中間位置である。第3関節13cの位置は、例えば、第3関節13cの回転軸の位置である。位置情報取得部54は、求められたハンド14の位置及び第3関節13cの位置を開始位置として設定する。
また、位置情報は、目標動作におけるロボットアーム12の目標位置を含む。この例では、第1動作においては、コンテナ91内の物体Aを把持するときのロボットアーム12の位置が目標位置となる。第2動作においては、物体Aを載置台92に載置するときのロボットアーム12の位置が目標位置となる。第1動作の際には、位置情報取得部54は、ロボット座標系における物体Aの位置を三次元ビジョンセンサ4からの空間情報に基づいて求める。例えば、位置情報取得部54は、パターンマッチング等の画像認識技術によって空間情報から物体Aを識別し、物体Aの位置を求める。尚、画像認識技術は、パターンマッチングに限定されず、深層学習によって得られた画像識別モデルを用いてもよい。位置情報取得部54は、物体Aを把持し且つ他の物体に干渉しないロボットアーム12の状態を決定し、その状態におけるロボットアーム12の位置を目標位置として取得する。第2動作の際には、位置情報取得部54は、載置台92に載置された物体Aを把持し且つ他の物体に干渉しないロボットアーム12の状態を決定し、その状態におけるロボットアーム12の位置を目標位置として設定する。ロボット座標系における載置台92の位置は、記憶部52に予め記憶されている。この例では、位置情報取得部54は、第1動作及び第2動作の何れにおいても、ハンド14の位置及び第3関節13cの位置をロボットアーム12の目標位置として取得する。開始位置及び目標位置としてのハンド14の位置及び第3関節13cの位置は、配置空間における動作装置の位置情報の一例である。また、開始位置及び目標位置としてのハンド14の位置は、配置空間におけるロボットアームの先端部の位置情報の一例である。
動作生成部56は、三次元ビジョンセンサ4によって取得された空間情報と位置情報取得部54によって取得された位置情報とに基づいてロボットアーム12の目標動作を生成する。動作生成部56は、動作生成モデル6を用いて目標動作を生成する。例えば、動作生成部56は、ロボットアーム12の目標経路又は目標軌道(目標経路及びその時間情報)を目標動作として出力する。
動作生成モデル6は、ニューラルネットワーク60を含んでいる。具体的には、ニューラルネットワーク60は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。以下、ニューラルネットワーク60をCNN60と称する。この例では、動作生成モデル6は、予め深層学習によって取得されている。
図4は、動作生成モデル6のCNN60の模式図である。CNN60は、複数のフィルタ層61、複数のプーリング層62、及び、複数の全結合層63を含んでいる。CNN60は、三次元ビジョンセンサ4の空間情報41を複数のフィルタ層61及び複数のプーリング層62で処理することによって特徴マップ64を生成する。CNN60は、特徴マップ64のうち、位置情報取得部54からの位置情報に対応する位置(即ち、セグメント)の特徴量を抽出する。CNN60は、抽出された特徴量を全結合層63へ入力する。CNN60は、ロボットアーム12が他の物体との干渉を回避しながら開始位置から目標位置へ向かう経路に沿って移動するための各関節の回転角の変化量(変化ベクトル)を出力する。すなわち、CNN60は、実質的に、ロボットアーム12の経路を出力する。このとき出力される各関節の回転角の変化量は、ロボットアーム12が目標位置へ向かって段階的に移動するための関節の回転角の変化量である。尚、CNN60は、関節の回転角の変化量と該変化量に関する時間情報(例えば、回転角の変化速度)とを出力してもよい。この場合、CNN60は、実質的に、ロボットアーム12の軌道を出力する。
この例では、複数のフィルタ層61及び複数のプーリング層62は、エンコーダ及びデコーダとして機能する。例えば、複数のフィルタ層61及び複数のプーリング層62は、Encoder Decoder Networkを形成している。つまり、複数のフィルタ層61及び複数のプーリング層62は、空間情報41を一旦、特徴を抽出しながら低解像度化させた後、再び高解像度化させる。これら複数のフィルタ層61及び複数のプーリング層62によって特徴マップ64が生成される。
図5は、特徴マップ64の模式図である。特徴マップ64は、ロボットアーム12の配置空間と対応する位置関係を有している。配置空間に対応する位置関係とは、配置空間の各位置に対して特徴マップにおける位置が一意に決まる関係を意味する。この例では、特徴マップ64は、ロボット座標系に対応した座標系を有する形に生成される。つまり、特徴マップ64は、ロボット座標系のX、Y、Z軸に対応するx、y、z軸の直交3軸の座標系を有し、三次元形状に形成されている。特徴マップ64は、三次元状にセグメント化され、各セグメントsに特徴量が割り当てられている。特徴マップ64の各特徴量は、各セグメントsが対応する配置空間における位置の環境情報を反映している。各特徴量は、1又は複数のパラメータで形成されている。
CNN60は、特徴マップ64を生成した後、位置情報取得部54からの位置情報に対応する位置の特徴量を抽出する。この例では、位置情報は、開始位置と目標位置とを含む。また、開始位置及び目標位置の何れにおいても、ハンド14の位置及び第3関節13cの位置がロボットアーム12の位置として設定されている。そのため、開始位置に対応する位置の特徴量として、ハンド14の開始位置に対応する位置のセグメントs1の特徴量、及び、第3関節13cの開始位置に対応する位置のセグメントs2の特徴量の2つの特徴量が抽出される。目標位置に対応する位置の特徴量として、ハンド14の目標位置に対応する位置のセグメントs3の特徴量、及び、第3関節13cの目標位置に対応する位置のセグメントs4の特徴量の2つの特徴量が抽出される。つまり、4つの特徴量が抽出される。
このとき、CNN60は、ロボットアーム12の位置に対応する位置がセグメント内のどこに位置するかによって、抽出する特徴量を調整してもよい。例えば、CNN60は、ロボットアーム12の位置に対応する位置の、セグメント内の位置に応じて特徴量を線形補間してもよい。ハンド14の開始位置を例にして説明すると、ハンド14の開始位置に対応する位置がセグメントs1の中央に位置する場合には、CNN60は、セグメントs1の特徴量をそのまま抽出する。ハンド14の開始位置に対応する位置がセグメントs1の中央からずれている場合には、CNN60は、セグメントs1の特徴量とセグメントs1に隣接する1又は複数のセグメントの特徴量とでハンド14の開始位置に対応する特徴量を線形補間する。こうすることで、特徴マップ64のセグメントsの解像度よりも詳細に特徴量を抽出することができる。
CNN60は、抽出された特徴量を全結合層63に入力する。この例では、CNN60は、抽出された4つの特徴量を全結合層63に入力する。CNN60は、抽出されなかった特徴量を全結合層63へ入力しない。全結合層63は、ロボットアーム12が他の物体との干渉を回避しながら目標位置へ向かう経路に沿って移動するための各関節の回転角の変化量(変化ベクトル)を出力する。この各関節の回転角の変化量は、目標動作(例えば、目標経路)に対応する。
動作指令部57は、動作生成部56から出力される、各関節の回転角の変化量に応じた指令値を作成し、作成された指令値をロボット制御装置2へ出力する。
ロボット制御装置2は、動作指令部57からの指令値に基づいてサーボモータ15を駆動する。このとき、ロボット制御装置2は、エンコーダ15aの検出結果に基づいてサーボモータ15への供給電流をフィードバック制御する。
続いて、このように構成されたロボットシステム100の動作について説明する。図6は、ロボットシステム100におけるロボットアーム12の動作生成処理を示すフローチャートである。ロボットアーム12がコンテナ91内から所定の物体Aを取り出し、その物体Aを載置台92まで搬送するピックアップ動作について説明する。
まず、制御装置5は、ロボットアーム12が物体Aを取りに行くまでの第1動作を実行させる。制御装置5は、ステップS1において、三次元ビジョンセンサ4を介して空間情報を取得する。三次元ビジョンセンサ4は、コンテナ91及び載置台92の上方から、コンテナ91、載置台92及びコンテナ91内の物体の位置及び形状を計測する。三次元ビジョンセンサ4は、コンテナ91、載置台92及びコンテナ91内の物体の位置及び形状を点群データの形式で制御装置5へ出力する。
次に、ステップS2において、制御装置5は、目標動作におけるロボットアーム12の目標位置を取得する。具体的には、位置情報取得部54は、まず三次元ビジョンセンサ4の空間情報に基づいて物体Aの位置を検出する。そして、位置情報取得部54は、検出された位置に配置された物体Aを他の物体に干渉することなく把持する状態のロボットアーム12の位置を求める。位置情報取得部54は、その状態のロボットアーム12のハンド14の位置及び第3関節13cの位置を目標位置として設定する。
続いて、ステップS3において、制御装置5は、目標動作におけるロボットアーム12の開始位置を取得する。具体的には、位置情報取得部54は、各エンコーダ15aの検出結果に基づいてロボットアーム12の現在位置を求め、ハンド14の位置及び第3関節13cの位置を開始位置として設定する。
次に、ステップS4において、制御装置5は、目標動作を生成する。具体的には、動作生成部56は、動作生成モデル6を用いて、三次元ビジョンセンサ4からの空間情報と開始位置と目標位置とに基づいてロボットアーム12の目標動作を生成する。詳しくは、動作生成部56は、空間情報から特徴マップ64を生成する。その後、動作生成部56は、特徴マップ64のうち開始位置及び目標位置のそれぞれに対応する位置の特徴量を抽出し、抽出された特徴量を用いてロボットアーム12の目標動作を生成する。目標動作は、他の物体との干渉を回避しながら開始位置から目標位置へ向かう目標経路に沿った移動である。この例では、1回の目標動作で、ロボットアーム12が開始位置から目標位置まで移動するわけではない。ロボットアーム12は、1回の目標動作で、開始位置から目標位置までの全経路のうちの一部の経路に沿って微小な移動を行う。動作生成部56は、ロボットアーム12に目標動作を実行させるための各関節の回転角の変化量を出力する。
続いて、ステップS5において、制御装置5は、ロボットアーム12に目標動作を実行させる。具体的には、動作指令部57は、動作生成部56から出力された、各関節の回転角の変化量を指令値に変換し、指令値をロボット制御装置2へ出力する。ロボット制御装置2は、指令値に基づいて、サーボモータ15を制御して、ロボットアーム12を動作させる。ロボットアーム12は、目標経路に沿って移動する。
その後、制御装置5は、ステップS6において、各エンコーダ15aの検出結果に基づいてロボットアーム12の現在位置を求め、ロボットアーム12が目標位置に到達したか否かを判定する。
ロボットアーム12のハンド14の位置及び第3関節13cの位置が目標位置に到達していない場合には、制御装置5は、ステップS3に戻り、ステップS3からの処理を繰り返す。つまり、制御装置5は、ステップS5による移動後のロボットアーム12の現在位置を各エンコーダ15aの検出結果に基づいて求め、求められたハンド14の位置及び第3関節13cの位置を新たな開始位置として設定する。そして、ステップS4において、空間情報と新たな開始位置と目標位置とに基づいてロボットアーム12の次の目標動作が生成される。尚、空間情報及び目標位置は、変更されない。その後、新たな目標動作が実行される(ステップS5)。このように、ロボットアーム12の目標動作後の位置を新たな開始位置に更新して次の目標動作が実行されるという処理が、ロボットアーム12が目標位置に到達するまで繰り返される。
図7は、ロボットアーム12の第1動作を示す模式図である。今回の処理は第1動作なので、図7に示すように、ロボットアーム12は、第1動作の開始時の位置(実線で示す位置)からハンド14がコンテナ91内の物体Aを把持する位置(二点鎖線で示す位置)まで移動する。このとき、ロボットアーム12は、他の物体(コンテナ91、載置台92及び物体B等)との干渉を回避しながら移動する。図中の矢印は、ハンド14及び第3関節13cのそれぞれの目標動作に対応する移動を示す。ハンド14及び第3関節13cは、矢印で示すように、それぞれの目標経路に沿って微小な移動を繰り返しながら目標位置まで到達する。
尚、図7は、Y軸を向いて見た二次元的な図であるが、ロボットアーム12は、ZX平面内で移動するだけでなく、Y軸方向へも移動している。
ロボットアーム12のハンド14の位置及び第3関節13cの位置が目標位置に到達した場合には、制御装置5は、ステップS7において、目標位置が最終目標位置か否かを判定する。つまり、ピックアップ動作のように、動作が分割され、複数の目標位置が含まれている場合がある。ステップS7では、今回の目標位置が最終目標位置であるか否か、即ち、次に設定されるべき目標位置が残っているか否かが判定される。今回の処理では第1動作の完了後には第2動作が残っているので、今回の目標位置は最終目標位置ではないと判定される。
今回の目標位置が最終目標位置の場合には、制御装置5は、ロボットアーム12の動作生成処理を終了する。尚、目標位置が1つだけの場合には、当然ながら、今回の目標位置が最終目標位置となる。
今回の目標位置が最終目標位置でない場合、制御装置5は、ステップS2へ戻り、ステップS2からの処理を繰り返す。ステップS2において、次の目標動作の目標位置が新たに設定され、ステップS3以降の処理が実行される。今回の処理では、制御装置5は、第2動作のロボットアーム12の目標位置を新たな目標位置として設定する。具体的には、位置情報取得部54は、他の物体に干渉することなく物体Aを載置台92に載置する状態のロボットアーム12の位置を求める。位置情報取得部54は、その状態のロボットアーム12のハンド14の位置及び第3関節13cの位置を新たな目標位置として設定する。
こうして、ロボットアーム12の目標位置が更新される。そして、新たな目標位置に関して、ステップS3~S6の処理が繰り返される。今回の処理では、ロボットアーム12は、やがて第2動作の目標位置まで到達し、物体Aを載置台92に載置する。
ロボットアーム12のハンド14の位置及び第3関節13cの位置が新たな目標位置に到達した場合には、制御装置5は、再びステップS7において、目標位置が最終目標位置か否かを判定する。目標位置が最終目標位置となるまで、前述の処理が繰り返される。今回の処理では、第2動作の目標位置が最終目標位置であるので、制御装置5は、ロボットアーム12の動作生成処理を終了する。
ロボットアーム12は、このような動作生成処理によって目標動作を積み重ねていくことによって所望の動作を実現する。この例では、ロボットアーム12は、ピックアップ動作を実現する。この動作生成処理において、制御装置5は、空間情報に基づいて生成された特徴マップ64の特徴量のうち全結合層63に入力する特徴量をロボットアーム12の位置情報に基づいて選択することによって、ロボットアーム12の所望の動作の正確性を向上させることができる。
詳しくは、ニューラルネットワークを含むモデルは、空間情報が入力されることによって、空間情報に応じた目標動作を生成することが可能である。例えば、ニューラルネットワークは、空間情報から特徴マップを生成することによって空間における物体等の識別がしやすくなる。その上で、特徴マップと動作装置の位置情報とを全結合層に入力することによって、空間情報に応じた動作装置の目標動作を生成することができる。
しかしながら、特徴マップの全ての特徴量をそのまま全結合層に入力すると、目標動作にとって重要度が低い特徴量も多少なりとも考慮して目標動作が生成される。つまり、空間情報においては、目標動作に関連する位置の情報がより重要である。少なくとも、目標動作を行う動作装置の周囲の情報、即ち、どこにどのような物体が存在するかなどの情報は、重要である。逆に、目標動作を行う動作装置から遠く離れた位置の情報は、目標動作を生成する上であまり重要ではない。動作装置から遠く離れた位置に物体が存在するとしても、その物体が目標動作に与える影響は小さいからである。
特徴マップは、配置空間に対応した位置関係を有している。特徴マップの各セグメントの特徴量は、各セグメントに対応する配置空間の位置における特徴を反映している。つまり、特徴マップには、目標動作を生成する上で重要な特徴量だけでなく、重要でない特徴量も含まれる。目標動作を生成する上で、特徴マップの特徴量の全てが重要なわけではない。
そこで、動作生成モデル6は、特徴マップ64のうちロボットアーム12の位置情報に対応する位置の特徴量を抽出して、抽出された特徴量に基づいて目標動作(例えば、目標経路又は目標軌道)を生成する。これにより、動作生成モデル6は、重要な情報をより重要視して目標動作を生成することができる。その結果、ロボットアーム12の目標動作を生成する際の正確性を向上させることができる。
具体的には、動作生成モデル6は、特徴マップ64のうちロボットアーム12の開始位置及び目標位置に対応する位置の特徴量を抽出して、抽出された特徴量に基づいて、ロボットアーム12が他の物体との干渉を回避しながら開始位置から目標位置に向かって移動する動作を目標動作として生成する。このように、少なくともロボットアーム12の配置空間における開始位置及び目標位置のそれぞれを中心とする情報を反映している特徴マップ64の特徴量を用いて目標動作を生成することによって、ロボットアーム12が他の物体との干渉を回避しながら開始位置から目標位置に向かって移動する動作を生成する際の正確性を向上させることができる。
この例では、動作生成モデル6は、特徴マップ64の特徴量のうち抽出された特徴量のみを用いて目標動作を生成している。つまり、動作生成モデル6は、特徴マップ64の特徴量のうち目標動作を生成する上で重要度の低い特徴量を使用しない。特徴マップ64の全ての特徴量を用いて目標動作を生成する場合、重要度の低い特徴量が多少なりとも、生成される目標動作に影響を与え得る。それにより、目標動作を生成する際の正確性が低下する虞がある。特徴マップ64の特徴量のうち抽出された特徴量のみを用いて目標動作を生成することによって、目標動作の生成に用いられる特徴量の全体的な重要度を高め、目標動作をより高い正確性で生成することができる。
さらに、三次元ビジョンセンサ4は、三次元の配置空間の情報を取得し、動作生成モデル6は、三次元の配置空間に対応した位置関係を有する特徴マップ64を生成する。これにより、動作生成装置3は、ロボットアーム12の三次元状の目標動作を高い正確性で生成することができる。
尚、動作生成モデル6は、特徴マップ64のうちロボットアーム12の位置情報に対応する位置の特徴量を重く重みづけして、特徴マップ64の特徴量を用いて目標動作を生成してもよい。つまり、特徴量を抽出する場合と異なり、ロボットアーム12の位置情報に対応しない位置の特徴量も目標動作の生成に用いられる。
例えば、動作生成モデル6は、特徴マップ64の特徴量に重みづけ係数を乗じてもよい。例えば、特徴マップ64のうち開始位置及び目標位置のそれぞれに対応する特徴量の重みづけ係数を大きくして、配置空間における開始位置又は目標位置から離れた位置に対応する位置の特徴量ほど、重みづけ係数を小さくする。これにより、目標動作を生成する上で重要な特徴量の重要度が高められ、目標動作を生成上で重要でない特徴量の重要度が低減される。その結果、あまり重要でない特徴量が目標動作の生成に与える影響が低減され、目標動作をより高い正確性で生成することができる。
以上のように、動作生成装置3は、ロボットアーム12(動作装置)が配置された空間である配置空間の空間情報を取得する三次元ビジョンセンサ4(空間情報取得部)と、配置空間におけるロボットアーム12の位置情報を取得する位置情報取得部54と、ニューラルネットワーク60、即ち、CNN60を含んだ動作生成モデル6を用いて、三次元ビジョンセンサ4によって取得された空間情報と位置情報取得部54によって取得された位置情報とに基づいて、ロボットアーム12の目標動作を生成する動作生成部56とを備え、動作生成モデル6は、配置空間に対応した位置関係を有する特徴マップ64を空間情報に基づいて生成し、特徴マップ64のうち位置情報に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成する。
換言すると、ロボットアーム12の目標動作を生成する動作生成方法は、ロボットアーム12が配置された空間である配置空間の空間情報を取得することと、配置空間におけるロボットアーム12の位置情報を取得することと、ニューラルネットワーク60を含んだ動作生成モデル6を用いて、空間情報と位置情報とに基づいてロボットアーム12の目標動作を生成することとを含み、動作生成モデル6は、配置空間に対応した位置関係を有する特徴マップ64を空間情報に基づいて生成し、特徴マップ64のうち位置情報に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成する。
また、動作生成プログラム58は、ロボットアーム12の目標動作を生成するために制御装置5(コンピュータ)に、ロボットアーム12が配置された空間である配置空間におけるロボットアーム12の位置情報を取得する機能と、ニューラルネットワーク60を含んだ動作生成モデル6を用いて、配置空間の空間情報と位置情報とに基づいてロボットアーム12の目標動作を生成する機能とを実現させ、動作生成モデル6は、配置空間に対応した位置関係を有する特徴マップ64を空間情報に基づいて生成し、特徴マップ64のうち位置情報に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成する。
これらの構成によれば、ロボットアーム12の目標動作は、ニューラルネットワーク60、即ち、CNN60を含んだ動作生成モデル6を用いて生成される。動作生成モデル6は、ロボットアーム12の配置空間に対応した位置関係を有する特徴マップ64を配置空間の空間情報に基づいて生成する。ここで、動作生成モデル6は、特徴マップ64のうち位置情報に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成する。つまり、動作生成モデル6は、目標動作を生成する上で、特徴マップ64のうち、配置空間におけるロボットアーム12の位置情報に対応する位置の特徴量の重要度を向上させる。特徴マップ64のうち位置情報に対応する位置の特徴量は、配置空間におけるロボットアーム12を中心とする空間の情報を反映している。特徴マップ64のうち位置情報に対応する位置の特徴量を抽出又は重く重みづけすることによって、重要な情報をより重要視して目標動作を生成することができる。その結果、ロボットアーム12の目標動作を生成する際の正確性を向上させることができる。
位置情報は、目標動作におけるロボットアーム12の開始位置を含む。
この構成によれば、動作生成モデル6は、特徴マップ64のうち、配置空間におけるロボットアーム12の開始位置に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成する。つまり、配置空間におけるロボットアーム12の開始位置を中心とする空間の情報がより重要視されて目標動作が生成される。その結果、ロボットアーム12の目標動作を生成する際の正確性を向上させることができる。特に、ロボットアーム12の開始位置周辺の目標動作の正確性が向上する。
また、位置情報は、目標動作におけるロボットアーム12の目標位置を含む。
この構成によれば、動作生成モデル6は、特徴マップ64のうち、配置空間におけるロボットアーム12の目標位置に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成する。つまり、配置空間におけるロボットアーム12の目標位置を中心とする空間の情報がより重要視されて目標動作が生成される。その結果、ロボットアーム12の目標動作を生成する際の正確性を向上させることができる。特に、ロボットアーム12の目標位置周辺の目標動作の正確性が向上する。
さらに、動作生成モデル6は、特徴マップ64のうち開始位置及び目標位置に対応する位置の特徴量を抽出又は重く重みづけして、ロボットアーム12が他の物体との干渉を回避しながら開始位置から目標位置に向かって移動する動作を目標動作として生成する。
この構成によれば、動作生成モデル6は、ロボットアーム12が他の物体との干渉を回避しながら開始位置から目標位置に向かって移動する動作を生成する。このような動作を生成する際には、ロボットアーム12の配置空間において、少なくとも開始位置を中心とする空間の情報と目標位置を中心とする空間の情報とが重要である。つまり、特徴マップ64のうち開始位置及び目標位置に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成することによって、配置空間における開始位置及び目標位置のそれぞれを中心とする空間の情報をより重要視して目標動作が生成される。その結果、ロボットアーム12が他の物体との干渉を回避しながら開始位置から目標位置に向かって移動する動作を生成する正確性を向上させることができる。
また、ロボットアーム12は、三次元状に動作するように構成され、三次元ビジョンセンサ4は、三次元の配置空間の空間情報を取得し、特徴マップ64は、三次元の配置空間に対応した位置関係を有する。
この構成によれば、三次元ビジョンセンサ4は、三次元の配置空間の空間情報を取得し、特徴マップ64は、三次元の配置空間に対応した位置関係を有する。そのため、三次元状に動作するロボットアーム12の目標動作を正確に生成することができる。
また、ロボットシステム100は、動作生成装置3と、動作装置としてのロボット1とを備えている。
この構成によれば、動作生成装置3は、ロボットシステム100に組み込まれる。動作生成装置3は、ロボット1の動作を生成する。
ロボット1は、ロボットアーム12を有し、動作生成部56は、ロボットアーム12の動作を生成する。
この構成によれば、ロボットアーム12の目標動作が高い正確性で生成される。
位置情報取得部54は、配置空間におけるロボットアーム12の少なくともハンド14(先端部)の位置情報を取得し、動作生成部56は、特徴マップ64のうちロボットアーム12のハンド14の位置情報に対応する位置の特徴量を抽出又は重く重みづけして目標動作を生成する。
この構成によれば、配置空間におけるロボットアーム12のハンド14の位置情報に対応する位置の特徴量の重要度が向上する。この特徴量は、配置空間におけるハンド14を中心とする空間の情報を反映している。そのため、ロボットアーム12の目標動作を生成する際の正確性、特にハンド14の目標動作の正確性を向上させることができる。
《その他の実施形態》
以上のように、本出願において開示する技術の例示として、前記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、前記実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。また、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、前記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
例えば、動作装置は、ロボットアーム12及びロボット1に限定されない。動作を行う装置であれば、任意の装置が動作装置の対象となり得る。例えば、動作装置は、自走式のロボットなど、ロボットアームを備えないロボットであってもよい。また、動作装置は、ドローン等の移動体であってもよい。また、ロボット1は、産業用ロボットに限定されない。
ロボットアーム12は、垂直多関節型のロボットアームに限定されない。ロボットアーム12は、水平多関節型、パラレルリンク型、直角座標型、又は極座標型のロボットアーム等であってもよい。
また、動作装置は、ロボットアーム12ではなく、ハンド14の指14aであってもよい。つまり、指14aの目標経路又は目標軌道等が目標動作をして生成されてもよい。
空間情報取得部は、三次元ビジョンセンサ4に限定されない。例えば、空間情報取得部は、RGB-D画像を出力するRGB-Dカメラであってもよい。あるいは、空間情報取得部は、RGB画像を取得するステレオカメラ等であってもよい。また、空間情報は、点群データ、RGB-D画像、RGB画像の他に、デプス画像、ボクセル等であってもよい。
空間情報取得部は、センサやカメラ等のような装置に限定されない。空間情報は、予め取得され、記憶部52又は他の装置に記憶されていてもよい。その場合、記憶部52又は他の装置から空間情報を読み出す制御部51(より具体的には、制御部51の機能ブロック)が空間情報取得部となる。
特徴量の抽出又は重みづけを行うために特徴マップ64から特徴量を選択する場合に用いられるロボットアーム12の位置は、ハンド14の位置及び第3関節13cの位置に限定されない。ロボットアーム12の別の部分の位置が用いられてもよいし、ロボットアーム12の全ての関節の位置が用いられてもよい。あるいは、ロボットアーム12のリンク等を含む全ての部分の位置が用いられてもよい。つまり、配置空間における動作装置の位置情報は、ハンド14の位置及び第3関節13cの位置のように、動作装置の代表的な部分の位置に限定されない。
また、特徴マップ64から特徴量を選択する場合に用いられる動作装置の位置情報は、開始位置及び目標位置に限定されない。例えば、位置情報は、目標動作に応じて異なり得る。例えば、開始位置が常に決まっていてる場合などには、開始位置が位置情報に含まれなくてもよい。目標位置についても同様である。また、位置情報には、開始位置と目標位置との間で経由する経由位置等が含まれていてもよい。
また、開始位置は、エンコーダ15aの検出結果によって取得されているが、これに限定されない。目標位置は、空間情報を画像認識技術によって画像を認識することによって取得されているが、これに限定されない。開始位置又は目標位置は、外部からの入力を受け付けることによって、制御部51が取得してもよい。例えば、制御装置5がタッチパネル等の操作入力部を有し、タッチパネルに表示された配置空間の画像からユーザが開始位置及び/又は目標位置を選択してもよい。あるいは、開始位置及び/又は目標位置は、予め決められ、記憶部52等に記憶されていてもよい。
前述のフローチャートでは、目標動作を生成して実行する処理を繰り返すことによって、ロボットアーム12が開始位置から目標位置まで少しずつ移動するが、このような処理に限定されない。例えば、制御装置5は、開始位置から目標位置までの目標経路を全て生成してからロボットアーム12の移動を開始してもよい。つまり、制御装置5は、前述のフローチャートのステップS4において目標動作を生成した後に、ステップS3へ戻って、仮に目標動作が実行された後のロボットアーム12の位置を新たな開始位置として更新してもよい。制御装置5は、この処理を繰り返して、開始位置から目標位置に到達するまでの全ての目標動作を生成してから、ロボットアーム12に目標動作を実行させてもよい。
また、動作生成部56は、1回の目標動作として、開始位置から目標位置までの移動を生成してもよい。例えば、CNN60において、全結合層63が、特徴マップ64から抽出された特徴量に基づいて、ロボットアーム12が開始位置から目標位置に至るまでの目標経路又は目標軌道を出力してもよい。
動作生成モデル6のニューラルネットワークは、畳み込みニューラルネットワークに限定されない。配置空間に対応した位置関係を有する特徴マップを生成するニューラルネットワークであれば、任意のニューラルネットワークを採用することができる。例えば、Self-Attention機構を有するニューラルネットワークであってもよい。
本明細書で開示する要素の機能は、開示された機能を実行するよう構成またはプログラムされた汎用プロセッサ、専用プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路、および/または、それらの組み合わせ、を含む回路または処理回路を使用して実行できる。プロセッサは、トランジスタやその他の回路を含むため、処理回路または回路と見なされる。本開示において、回路、ユニット、または手段は、列挙された機能を実行するハードウェアであるか、または、列挙された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されているハードウェアであってもよいし、あるいは、列挙された機能を実行するようにプログラムまたは構成されているその他の既知のハードウェアであってもよい。ハードウェアが回路の一種と考えられるプロセッサである場合、回路、手段、またはユニットはハードウェアとソフトウェアの組み合わせであり、ソフトウェアはハードウェアおよび/またはプロセッサの構成に使用される。
100 ロボットシステム
1 ロボット
12 ロボットアーム(動作装置)
3 動作生成装置
4 三次元ビジョンセンサ(空間情報取得部)
5 制御装置(コンピュータ)
54 位置情報取得部
58 動作生成プログラム
6 動作生成モデル
60 ニューラルネットワーク、CNN
64 特徴マップ

Claims (10)

  1. 動作装置が配置された空間である配置空間の空間情報を取得する空間情報取得部と、
    前記配置空間における前記動作装置の位置情報を取得する位置情報取得部と、
    ニューラルネットワークを含んだ動作生成モデルを用いて、前記空間情報取得部によって取得された前記空間情報と前記位置情報取得部によって取得された前記位置情報とに基づいて前記動作装置の目標動作を生成する動作生成部とを備え、
    前記動作生成モデルは、
    前記配置空間に対応した位置関係を有する特徴マップを前記空間情報に基づいて前記ニューラルネットワークによって生成し、
    前記特徴マップのうち前記位置情報に対応する位置の特徴量を抽出又は重く重みづけして前記目標動作を生成する動作生成装置。
  2. 請求項1に記載の動作生成装置において、
    前記位置情報は、前記目標動作における前記動作装置の開始位置を含む動作生成装置。
  3. 請求項1又は2に記載の動作生成装置において、
    前記位置情報は、前記目標動作における前記動作装置の目標位置を含む動作生成装置。
  4. 請求項2に記載の動作生成装置において、
    前記位置情報は、前記目標動作における前記動作装置の目標位置を含み、
    前記動作生成モデルは、前記特徴マップのうち前記開始位置及び前記目標位置に対応する位置の特徴量を抽出又は重く重みづけして、前記動作装置が他の物体との干渉を回避しながら前記開始位置から前記目標位置に向かって移動する動作を前記目標動作として生成する動作生成装置。
  5. 請求項1乃至4の何れか1項に記載の動作生成装置において、
    前記動作装置は、三次元状に動作するように構成され、
    前記空間情報取得部は、三次元の前記配置空間の前記空間情報を取得し、
    前記特徴マップは、三次元の前記配置空間に対応した位置関係を有する動作生成装置。
  6. 請求項1乃至5の何れか1項に記載の動作生成装置と、
    前記動作装置としてのロボットとを備えるロボットシステム。
  7. 請求項6に記載のロボットシステムにおいて、
    前記ロボットは、ロボットアームを有し、
    前記動作生成部は、前記ロボットアームの前記目標動作を生成するロボットシステム。
  8. 請求項7に記載のロボットシステムにおいて、
    前記位置情報取得部は、前記配置空間における前記ロボットアームの少なくとも先端部の位置情報を取得し、
    前記動作生成部は、前記特徴マップのうち前記ロボットアームの先端部の位置情報に対応する位置の特徴量を抽出又は重く重みづけして前記目標動作を生成するロボットシステム。
  9. 動作装置の目標動作を生成する動作生成方法であって、
    前記動作装置が配置された空間である配置空間の空間情報を取得することと、
    前記配置空間における前記動作装置の位置情報を取得することと、
    ニューラルネットワークを含んだ動作生成モデルを用いて、前記空間情報と前記位置情報とに基づいて前記動作装置の目標動作を生成することとを含み、
    前記動作生成モデルは、
    前記配置空間に対応した位置関係を有する特徴マップを前記空間情報に基づいて前記ニューラルネットワークによって生成し、
    前記特徴マップのうち前記位置情報に対応する位置の特徴量を抽出又は重く重みづけして前記目標動作を生成する動作生成方法。
  10. 動作装置の目標動作を生成するためにコンピュータに、
    前記動作装置が配置された空間である配置空間における前記動作装置の位置情報を取得する機能と、
    ニューラルネットワークを含んだ動作生成モデルを用いて、前記配置空間の空間情報と前記位置情報とに基づいて前記動作装置の目標動作を生成する機能とを実現させ、
    前記動作生成モデルは、
    前記配置空間に対応した位置関係を有する特徴マップを前記空間情報に基づいて前記ニューラルネットワークによって生成し、
    前記特徴マップのうち前記位置情報に対応する位置の特徴量を抽出又は重く重みづけして前記目標動作を生成する動作生成プログラム。
JP2022574891A 2021-01-12 2021-01-12 動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム Active JP7441335B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/000733 WO2022153373A1 (ja) 2021-01-12 2021-01-12 動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2022153373A1 JPWO2022153373A1 (ja) 2022-07-21
JP7441335B2 true JP7441335B2 (ja) 2024-02-29

Family

ID=82446991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022574891A Active JP7441335B2 (ja) 2021-01-12 2021-01-12 動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム

Country Status (2)

Country Link
JP (1) JP7441335B2 (ja)
WO (1) WO2022153373A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280710A (ja) 2002-03-20 2003-10-02 Japan Atom Energy Res Inst ロボットハンドの作業軌道の生成と制御方法
US20160082597A1 (en) 2013-05-22 2016-03-24 Neurala, Inc. Methods and apparatus for early sensory integration and robust acquisition of real world knowledge
WO2018143003A1 (ja) 2017-01-31 2018-08-09 株式会社安川電機 ロボットパス生成装置及びロボットシステム
US20200171671A1 (en) 2018-12-04 2020-06-04 CloudMinds Technology, Inc. Human augmented cloud-based robotics intelligence framework and associated methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280710A (ja) 2002-03-20 2003-10-02 Japan Atom Energy Res Inst ロボットハンドの作業軌道の生成と制御方法
US20160082597A1 (en) 2013-05-22 2016-03-24 Neurala, Inc. Methods and apparatus for early sensory integration and robust acquisition of real world knowledge
WO2018143003A1 (ja) 2017-01-31 2018-08-09 株式会社安川電機 ロボットパス生成装置及びロボットシステム
US20200171671A1 (en) 2018-12-04 2020-06-04 CloudMinds Technology, Inc. Human augmented cloud-based robotics intelligence framework and associated methods

Also Published As

Publication number Publication date
WO2022153373A1 (ja) 2022-07-21
JPWO2022153373A1 (ja) 2022-07-21

Similar Documents

Publication Publication Date Title
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP6781183B2 (ja) 制御装置及び機械学習装置
US9387589B2 (en) Visual debugging of robotic tasks
JP7458741B2 (ja) ロボット制御装置及びその制御方法及びプログラム
US20120290130A1 (en) Method to Model and Program a Robotic Workcell
JP6826069B2 (ja) ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
US20170277167A1 (en) Robot system, robot control device, and robot
CN115351780A (zh) 用于控制机器人设备的方法
KR20230122118A (ko) 지도된 자율 파지
CN113246131B (zh) 运动捕捉方法、装置、电子设备以及机械臂控制系统
US20180085920A1 (en) Robot control device, robot, and robot system
CN116018599A (zh) 用于训练机器学习模型以从对象的图像中识别对象的对象拓扑的设备和方法
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP6792230B1 (ja) 情報処理装置、方法およびプログラム
CN114080304A (zh) 控制装置、控制方法及控制程序
CN114494426A (zh) 用于控制机器人来在不同的方位拿起对象的装置和方法
JP7447568B2 (ja) シミュレーション装置およびプログラム
JP7441335B2 (ja) 動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム
US20230390921A1 (en) Simulation model correction of a machine system
CN115703227A (zh) 机器人的控制方法、机器人以及计算机可读存储介质
JP7249221B2 (ja) センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法
JP7263987B2 (ja) 制御装置、制御方法、及び制御プログラム
US20220193906A1 (en) User Interface for Supervised Autonomous Grasping
TW202021754A (zh) 自動定位方法以及自動控制裝置
JP7205752B2 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230313

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240216

R150 Certificate of patent or registration of utility model

Ref document number: 7441335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150