JP6695843B2 - 装置、及びロボットシステム - Google Patents

装置、及びロボットシステム Download PDF

Info

Publication number
JP6695843B2
JP6695843B2 JP2017183593A JP2017183593A JP6695843B2 JP 6695843 B2 JP6695843 B2 JP 6695843B2 JP 2017183593 A JP2017183593 A JP 2017183593A JP 2017183593 A JP2017183593 A JP 2017183593A JP 6695843 B2 JP6695843 B2 JP 6695843B2
Authority
JP
Japan
Prior art keywords
unit
learning
image
teaching
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017183593A
Other languages
English (en)
Other versions
JP2019058960A (ja
JP2019058960A5 (ja
Inventor
岳 山▲崎▼
岳 山▲崎▼
大輔 岡野原
大輔 岡野原
叡一 松元
叡一 松元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Priority to JP2017183593A priority Critical patent/JP6695843B2/ja
Priority to US16/117,612 priority patent/US11845194B2/en
Priority to DE102018215826.6A priority patent/DE102018215826B4/de
Priority to CN201811101031.0A priority patent/CN109551459B/zh
Priority to CN202310544742.XA priority patent/CN116423478A/zh
Publication of JP2019058960A publication Critical patent/JP2019058960A/ja
Publication of JP2019058960A5 publication Critical patent/JP2019058960A5/ja
Priority to JP2020075789A priority patent/JP6895563B2/ja
Application granted granted Critical
Publication of JP6695843B2 publication Critical patent/JP6695843B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39311Multilayer, MNN, four layer perceptron, sigmoidal neural network
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Description

本発明は、物体の取り出しのための処理を行う、装置、及びロボットシステムに関する。
従来、物体(以下「ワーク」ともいう)の取り出し位置の検出のために、距離画像センサを含む3次元計測部により計測した、ワークの距離画像を用いた教示が行われている。距離画像を用いた教示を行うための手法としては、例えば、CAD(Computer-Aided Design)マッチングによる手法や、設定パラメータに基づいて探索を行う手法が一般的に利用されている。ここで、距離画像とは、計測対象物(ワーク)の表面を計測した画像であって、撮像された画像上の各画素(ピクセル)が3次元計測部からの深度情報を有する画像を意味する。すなわち、距離画像上の各画素(ピクセル)は、3次元計測部の備える3次元座標系における3次元座標情報を有するといえる。
CADマッチングによる手法では、まずワークの形状に対応するCADデータを作成する。次に、CADデータに対してロボットのハンドが把持可能となるワークの取り出し位置を教示する。また、ワークを計測した距離画像からCADデータにマッチングする箇所を探索する。そして、マッチングした箇所においてCADデータに対して教示したワークの取り出し位置に対応する位置を選択する。この選択結果に基づいて、ロボットのハンドによる把持を制御することによりワークの取り出しを実現することができる。
このようなCADデータを用いて、ワークの取り出し位置の教示を行うことにより、バラ積みされたワークを取り出す技術が、例えば特許文献1に開示されている。
また、設定パラメータに基づいて検索を行う場合、教示者の経験に基づいて、ロボットのハンドが把持可能となるワークの取り出し位置を検索するための検索アルゴリズムを選択し、選択した検索アルゴリズムのパラメータを変更しながら、実際の距離画像に対してワークが見つかるかどうか、確認しながらパラメータを調整することにより、ワークの取り出しを実現することができる。
特開2017−124450号公報
上述したようにCADデータマッチングによる手法は広く用いられている。しかしながら、この手法では、CADモデルに対して、ハンドにて把持可能となるワークの取り出し位置を複数教示する必要があり、教示に時間を要してしまう。
また、マッチングを行うためにCADモデルが必要となるが、不定形のワークについては、そもそもCADモデルを作成することができない。また、取り出す対象が完成品でなく、加工途中のワークである場合、加工中のワークのCADモデルをわざわざ取り出しのために追加で作成しなければならない。
一方、CADデータを利用することなく、距離画像からパラメータに基づいて探索を行う場合、上述したように教示者の経験に基づいて、ワークとハンドの関係を考慮した上で検索アルゴリズムを選択する必要がある。
このように、従来の手法では、ロボットシステムにおいてワークの取り出し位置を選択することは容易ではなかった。
そこで本発明は、より簡便な方法でワークの取り出し位置を選択するための、ロボットシステム及びワーク取り出し方法を提供することを目的とする。
(1) 本発明の装置(例えば、後述の画像処理装置10a)は、複数の物体(例えば、後述のワーク50)の少なくとも1つをンドによ取り出ための前記複数の物体を含む画像における位置の教示を受け付ける受付部(例えば、後述の操作受付部13)と、
前記教示に基づいて、前記複数の物体の少なくとも1つを取り出すための学習モデルを学習する学習部(例えば、後述の学習部14)と、を備える装置。
(2) 上記(1)に記載の装置は、前記画像を表示する表示部(例えば、後述の表示部12)、をさらに備えるようにしてもよい。
(3) 上記(2)に記載の装置において、前記表示部は、前記表示された位置を描画するようにしてもよい。
(4) 上記(1)乃至(3)のいずれかに記載の装置において、前記位置の教示は、前記位置を点及び領域のいずれかで指定したものであるようにしてもよい。
(5) 上記(1)乃至(4)のいずれかに記載の装置において、前記教示された位置及びその近傍の点群の情報を探索用情報として記憶し、前記画像に対して、前記探索用情報による探索を行うことにより、前記ハンドによる新たな取り出し位置を選択する取り出し位置選択部(例えば、後述の選択処理部11)を備えようにしてもよい。
(6) 上記(1)乃至(5)のいずれかに記載の装置において、前記学習部は、少なくとも、前記教示に基づく評価値、又は、前記教示に基づく物体の取り出し成否のいずれか1つに基づいて、前記学習モデルを学習するようにしてもよい。
(7) 上記(1)乃至(5)のいずれかに記載の装置において、前記学習部は、前記教示された位置及びその近傍の点群の情報を入力データとし、前記入力データとした点群の情報に対する教示に応じた評価値または取り出しの成否に応じた評価値の少なくともいずれか一方をラベルとした機械学習を行うことにより、入力データとして入力された点群の情報についての評価値を出力する前記学習モデルを学習すようにしてもよい。
(8) 上記(7)に記載の装置は、前記画像から所定領域の画像を切り抜き、切り抜かれた前記画像の点群の情報を前記学習モデルに入力データとして入力することにより出力される前記点群の情報についての評価値に基づいて、前記ハンドによる新たな取り出し位置を選択する取り出し位置選択部(例えば後述の選択処理部11)、をさらに備えてもよい。
(9) 上記(1)乃至(8)のいずれかに記載の装置において、前記学習モデルはニューラルネットワークであるようにしてもよい。
(10) 本発明のロボットシステム(例えば、後述のロボットシステム1a)は、上記(1)乃至(8)のいずれかに記載の装置と、前記複数の物体の画像を生成する計測機(例えば、後述の3次元計測機40)と、前記ハンドを有するロボット(例えば、後述のロボット30)と、を備えるロボットシステム。
(11) 本発明のロボットシステム(例えば、後述のロボットシステム1a)は、複数の物体の画像を生成する計測機(例えば、後述の3次元計測機40)と、前記複数の物体の少なくとも1つを取り出すためのハンドを有するロボット(例えば、後述のロボット30)と、前記画像に基づいて、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付部(例えば、後述の操作受付部13)と、を備え、前記ロボットは、前記教示された取り出し位置に応じた点群の情報に基づいて、前記ハンドにより前記複数の物体の少なくとも1つを取り出す、ロボットシステム。
(12) 上記(11)に記載のロボットシステムは、前記画像を表示する表示部、をさらに備えるようにしてもよい。
(13) 上記(12)に記載のロボットシステムにおいて、前記表示部は、前記表示された画像上に前記教示された位置を描画するようにしてもよい。
(14) 上記(11)乃至(13)のいずれかに記載のロボットシステムにおいて、前記位置の教示は、前記位置を点及び領域のいずれかで指定したものであるようにしてもよい。
(15) 上記(11)乃至(14)のいずれかに記載のロボットシステムにおいて、前記教示された位置及びその近傍の点群の情報を探索用情報として記憶し、前記画像に対して、前記探索用情報による探索を行うことにより、前記ハンドによる新たな取り出し位置を選択する取り出し位置選択部(例えば、後述の選択処理部11)をさらに備えるようにしてもよい。
(16) 本発明のワーク取り出し方法は、複数の物体の画像を生成する計測機(例えば、後述の3次元計測機40)と、前記複数の物体の少なくとも1つを取り出すためのハンドを有するロボット(例えば、後述のロボット30)と、を備えたロボットシステム(例えば、後述のロボットシステム1a)が行う物体取り出し方法であって、前記画像に基づいて、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付ステップと、前記取り出し位置の教示に基づいて、学習モデルを学習するステップと、を備え、前記ロボットは、前記学習モデルに基づいて、前記ハンドにより前記複数の物体の少なくとも1つを取り出す、物体取り出し方法。
(17) 上記(16)に記載の物体取り出し方法において、前記学習するステップは、少なくとも、前記教示に基づく評価値、又は、前記教示に基づく物体の取り出し成否のいずれか1つに基づいて、前記学習モデルを学習するようにしてもよい。
(18) 上記(16)に記載の物体取り出し方法において、前記学習するステップは、前記教示された取り出し位置及びその近傍の点群の情報を入力データとし、前記入力データとした点群の情報に対する教示に応じた評価値または取り出しの成否に応じた評価値の少なくともいずれか一方をラベルとした機械学習を行うことにより、入力データとして入力された点群の情報についての評価値を出力する前記学習モデルを学習するようにしてもよい。
(19) 上記(18)に記載の物体取り出し方法において、前記画像から所定領域の画像を切り抜き、切り抜かれた前記画像の点群の情報を前記学習モデルに入力データとして入力することにより出力される前記点群の情報についての評価値に基づいて、新たな取り出し位置を選択する取り出し位置選択ステップ、をさらに備え、前記ロボットは、前記教示された取り出し位置に基づいて前記ハンドにより前記複数の物体の少なくとも1つを取り出し、前記取り出し位置選択ステップによって選択された前記新たな取り出し位置で各物体を前記ハンドにより取り出すようにしてもよい。
(20) 本発明の他のロボットシステム(例えば、後述のロボットシステム1b)は、複数の物体(例えば、後述のワーク50)の画像を生成する計測機(例えば、後述の3次元計測機40)と、前記複数の物体の少なくとも1つを取り出すためのハンドを有するロボットと、前記画像を学習モデルに入力することで取得された、前記ハンドにより取り出し可能な物体が存在する領域を示す評価値マップに基づいて、前記複数の物体の少なくとも1つの取り出し位置を選択する位置選択部(例えば、後述の取り出し位置選択部153)と、を備え、前記ロボットは、選択した前記取り出し位置に基づいて、前記ハンドにより前記複数の物体の少なくとも1つを取り出す。
(21) 上記(20)に記載のロボットシステム(例えば、後述のロボットシステム1b)は、前記画像を表示する表示部(例えば、後述の表示部12)と、前記表示部に表示された前記画像に基づく少なくとも1つの教示位置の教示を受け付ける受付部(例えば、後述の操作受付部13)と、前記受付部で受け付けた前記教示位置に基づき少なくとも1つの教示位置を示すラベルマップを生成し、該ラベルマップと前記画像とを関連づけてデータセットとして教師データ格納部(例えば、後述の教師データ格納部151)に保存するアノテーション処理部(例えば、後述のアノテーション処理部152)と、前記教師データ格納部に格納された前記データセットを入力として、機械学習を行い、前記学習モデルを出力する学習処理部(例えば、後述の学習処理部141)と、をさらに備える。
(22) 本発明の他のワーク取り出し方法は、複数の物体(例えば、後述のワーク50)の画像を生成する計測機(例えば、後述の3次元計測機40)と、前記複数の物体の少なくとも1つを取り出すためのハンドを有するロボット(例えば、後述のロボット30)と、を備えたロボットシステム(例えば、後述のロボットシステム1b)が行う物体取り出し方法であって、前記画像を学習モデルに入力することで取得された、前記ハンドにより取り出し可能な物体が存在する領域を示す評価値マップに基づいて、前記複数の物体の少なくとも1つの取り出し位置を選択する位置選択ステップと、を備え、前記ロボットは、選択した前記取り出し位置に基づいて、前記ハンドにより前記複数の物体の少なくとも1つを取り出す。
(23) 上記(22)に記載の物体取り出し方法は、前記画像を表示する表示ステップと、前記表示ステップにて表示された前記画像に基づく少なくとも1つの教示位置の教示を受け付ける受付ステップと、前記受付ステップにて受け付けた前記教示位置に基づき少なくとも1つの教示位置を示すラベルマップを生成し、該ラベルマップと前記画像とを関連づけてデータセットとして教師データ格納部に保存するアノテーション処理ステップと、前記教師データ格納部に格納された前記データセットを入力として、機械学習を行い、前記学習モデルを出力する学習処理ステップと、をさらに備えるようにしてもよい。
本発明によれば、より簡便な方法でワークの取り出し位置を選択することが可能となる。
本発明の各実施形態の全体構成について示す模式図である。 本発明の第1の実施形態における画像処理装置の機能ブロックを示すブロック図である。 本発明の各実施形態において取り出し対象とするバラ積みされたワークを示す模式図である。 本発明の各実施形態においてバラ積みされたワークを計測することにより生成された距離画像を示す図である。 本発明の各実施形態において教示された取り出し位置を描画した距離画像を示す図である。 本発明の第1の実施形態において記録される描画位置周辺3次元点群情報を示す図である。 本発明の第1の実施形態において行われる切り抜きについて示す図である。 本発明の第1の実施形態において行われる切り抜き時の走査について示す図である。 本発明の第1の実施形態における動作を示すフローチャート(1/2)である。 本発明の第1の実施形態における動作を示すフローチャート(2/2)である。 本発明の第2の実施形態における画像処理装置の機能ブロックを示すブロック図である。 本発明の第2の実施形態における動作を示すフローチャートである。
次に、本発明の実施形態について図面を参照して詳細に説明をする。
以下では、第1の実施形態と第2の実施形態の2つの実施形態について説明を行う。ここで、各実施形態は、ワークの取り出し位置を選択するという構成において共通する。
ただし、取り出し位置の選択の処理において、第1の実施形態では画像のマッチング処理や画像を切り抜く処理といった前処理を行うのに対し、第2の実施形態ではこのような前処理を省略する点で相違する。
以下では、まず第1の実施形態について詳細に説明し、次に第2の実施形態において特に第1の実施形態と相違する部分について説明を行う。
<実施形態全体の構成>
図1を参照して、第1の実施形態に係るロボットシステム1aの構成について説明する。ロボットシステム1aは、画像処理装置10a、ロボット制御装置20、ロボット30、3次元計測機40、複数のワーク50、及びコンテナ60を備える。
画像処理装置10aは、ロボット制御装置20や3次元計測機40と通信可能に接続されている。また、ロボット制御装置20は、画像処理装置10aに加え、ロボット30とも通信可能に接続されている。
まず、ロボットシステム1aの概略について説明する。
ロボットシステム1aでは、バラ積みされた状態を含む乱雑に置かれた複数のワーク50を3次元計測機40で計測して距離画像を生成する。
そして、画像処理装置10aを用いて、距離画像からワーク50の取り出し位置を選択するための教示を行う。この教示は、距離画像に対して、ユーザが直接ワーク50の取り出し位置を教示することにより行われる。具体的には、画像処理装置10aは、距離画像を画像表示部に当該距離画像を構成する各画素の高さの違いが把握できるように、例えばグレースケール又はRGBのグラデーション等により表示させる。
これを参照したユーザが、マウスの操作等で例えば取り出し位置候補として適切な箇所を選択して、ワーク50の取り出し位置として指定すると、画像処理装置10aは、表示した距離画像に対してユーザにより教示された取り出し位置(以下「教示位置」という)を描画する。また、画像処理装置10aは、ユーザにより教示された取り出し位置周辺の距離画像のデータ(以下「教示位置近傍画像データ」という)を取得して記憶する。なお、取り出し位置候補として適切な箇所とは、例えば3次元点の高さの高い箇所である。
その後にワーク50の取り出し位置の選択を行う場合、画像処理装置10aは、記憶している教示位置近傍画像データとマッチングする画像領域を距離画像にて探索する。そして、画像処理装置10aは、マッチングした画像領域を新たな教示位置近傍画像データとし、当該画像データの例えば中心位置を新たな取り出し位置として選択する。このように、画像処理装置10aは、ユーザの教示に基づいて記憶した教示位置近傍画像データにより新たな取り出し位置を選択することができるので、ユーザからの新たな教示を受けなくとも、ワーク50の取り出し位置を選択することが可能となる。
このような構成により、ロボットシステム1aでは、従来に比べて、より簡便な方法でワーク50の取り出し位置を選択することができる。
また、ロボット制御装置20は、画像処理装置10aが選択したワーク50の取り出し位置に対して取り出しを行うための制御信号を生成する。そして、ロボット30が、ロボット制御装置20の生成した制御信号に基づいてワーク50の取り出しを実行する。このような構成により、ロボットシステム1aでは、選択した取り出し位置に基づいて、実際にワーク50を取り出すこともできる。
更に、画像処理装置10aは、教示結果に基づいて機械学習を行い、ワーク50の取り出し位置を選択するための学習モデルを構築する。そして、画像処理装置10aは、構築した学習モデルに基づいて、距離画像から新たな取り出し位置を選択する。
このような構成により、ロボットシステム1aでは、より精度高く取り出し位置を選択することができる。
以上がロボットシステム1aの概略である。次に、ロボットシステム1aに含まれる各装置について説明を行う。
画像処理装置10aは、距離画像を用いた教示や機械学習を行うための装置である。画像処理装置10aの詳細については、図2の機能ブロック図を参照して後述する。
ロボット制御装置20は、ロボット30の動作を制御するための装置である。ロボット制御装置20は、画像処理装置10aが選択したワーク50の取り出し位置等の情報に基づいて、ロボット30の動作を制御するための制御信号を生成する。そして、ロボット制御装置20は、生成した制御信号をロボット30に対して出力する。
なお、画像処理装置10aやロボット制御装置20は、予め行われたキャリブレーションにより、ロボット30を制御するための機械座標系と、ワーク50の取り出し位置を示すカメラ座標系とを対応付けているものとする。
ロボット30は、ロボット制御装置20の制御に基づいて動作するロボットである。ロボット30は、鉛直方向の軸を中心に回転するためのベース部や、移動及び回転するアームや、ワーク50を把持するためにアームに装着されるハンドを備える。
ロボット30は、ロボット制御装置20が出力する制御信号に応じて、アームやハンドを駆動して、ハンドを教示位置まで移動させて、バラ積みされたワーク50を把持してコンテナ60から取り出す。
なお、取り出したワーク50の移載先については図示を省略する。また、ロボット30やハンドの具体的な構成については、当業者によく知られているので、詳細な説明を省略する。
3次元計測機40は、コンテナ60内のワーク50を計測することにより、距離画像を生成する。3次元計測機40は、例えば、前述したように距離画像センサを備えるカメラ、又はステレオカメラを用いた3次元計測機により実現することができる。ただし、計測の過程で3次元の点群の距離画像を生成することができるのであれば距離画像センサを備えるカメラ、又はステレオカメラを用いた3次元計測機に限定されず、他の方式の3次元計測機によって3次元計測機40を実現してもよい。
3次元計測機40により生成された距離画像は、画像処理装置10aに対して出力される。
ワーク50は、コンテナ60内で、バラ積みされた状態を含んで乱雑に置かれる。ワーク50は、ロボット30のアームに装着されたハンドで把持可能なものであればよく、その形状等は特に限定されない。
<画像処理装置10aの機能ブロック>
次に、図2を参照して画像処理装置10aが備える各機能ブロックについて説明をする。なお、図2では、ロボットシステム1aにおける、画像処理装置10a以外の構成要素を環境100としてまとめて図示する。
画像処理装置10aは、選択処理部11、表示部12、操作受付部13、及び学習部14を備える。
選択処理部11は、ロボットシステム1aの概略として上述したように、各種の画像処理を行うことにより、ワーク50の取り出し位置を選択する。選択処理部11により行われる画像処理は、大きく区分して、「マッチング処理」と「切り抜き処理」の2つになる。
これらの処理を行うために、選択処理部11は、選択用データ格納部111、アノテーション処理部112、マッチング部113及び切り抜き部114を備える。
選択用データ格納部111は、選択処理部11内の各機能ブロックが利用する各種のデータを格納する部分である。
アノテーション処理部112、ユーザから、ワーク50の取り出し位置の教示を受けるための処理を行う部分である。
マッチング部113は、マッチング処理を行う部分である。また、切り抜き部114は切り抜き処理を行う部分である。
これら選択処理部11が備える各機能ブロックの機能と、マッチング処理及び切り抜き処理の内容については後述する。
表示部12は、選択処理部11の出力する画像を表示する部分である。選択処理部11の出力する画像は、例えば、ワーク50を3次元計測機40で計測することにより生成された距離画像や、ユーザの教示した教示位置を距離画像に描画した画像である。表示部12は、例えば、液晶ディスプレイや有機ELディスプレイにより実現される。
操作受付部13は、ユーザからの操作を受け付ける部分である。操作受付部13は、例えば、表示部12に表示した距離画像を参照したユーザからワーク50の取り出し位置を教示するための当該取り出し位置を指定する操作を受け付ける。操作受付部13は、例えばマウスやキーボード等により実現される。
例えば、ユーザがマウスやキーボードを使用して、表示部12に表示されるカーソルを当該取り出し位置(を示す画像上)に移動させて指定するようにしてもよい。また、タッチパネルにより表示部12と操作受付部13を一体的に実現することで、例えば当該取り出し位置(を示す画像上)をタップすることにより指定するようにしてもよい。
学習部14は、機械学習に関する処理を行う部分である。学習部14は、学習処理部141、学習済モデル格納部142、及び推定処理部143を備える。
学習処理部141は、機械学習を実行する部分であり、例えば、畳み込みニューラルネットワーク(コンボリューショナルニューラルネットワーク)を利用した深層学習(ディープラーニング)を行う。
学習済モデル格納部142は、学習処理部141が機械学習において学習中の学習モデルのパラメータや、学習済モデルのパラメータを格納する部分である。
推定処理部143は、選択処理部11による取り出し位置の選択のために、学習済モデル格納部142に格納された学習済モデルを利用した推定を行う。
これら各部により行われる機械学習の詳細な内容は<機械学習>という項目にて後述する。
以上、画像処理装置10aに含まれる機能ブロックについて説明した。
これらの機能ブロックを実現するために、画像処理装置10aは、CPU(Central Processing Unit)等の演算処理装置を備える。また、画像処理装置10aは、アプリケーションソフトウェアやOS(Operating System)等の各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置も備える。
そして、画像処理装置10aにおいて、演算処理装置が補助記憶装置からアプリケーションソフトウェアやOSを読み込み、読み込んだアプリケーションソフトウェアやOSを主記憶装置に展開させながら、これらのアプリケーションソフトウェアやOSに基づいた演算処理を行なう。また、この演算結果に基づいて、各装置が備える各種のハードウェアを制御する。これにより、第1の実施形態の機能ブロックは実現される。つまり、第1の実施形態は、ハードウェアとソフトウェアが協働することにより実現することができる。
具体例として、画像処理装置10aは、一般的なパーソナルコンピュータやサーバ装置に第1の実施形態を実現するためのアプリケーションソフトウェアを組み込むことより実現できる。
ただし、画像処理装置10aは、学習部14が行う機械学習に伴う演算量が多いため、例えば、コンピュータにGPU(Graphics Processing Units)を搭載し、GPGPU(General-Purpose computing on Graphics Processing Units)と呼ばれる技術により、GPUを機械学習に伴う演算処理に利用するようにすると高速処理できるようになるのでよい。また、コンピュータにFPGA(Field-Programmable Gate Array)を搭載し、FPGAを機械学習に伴う演算処理に利用するようにすると高速処理できるようになるのでよい。
更には、より高速な処理を行うために、このようなGPUやFPGAを搭載したコンピュータを複数台用いてコンピュータ・クラスターを構築し、このコンピュータ・クラスターに含まれる複数のコンピュータにて並列処理を行うようにしてもよい。
<マッチング処理>
次に、選択処理部11が行う処理の内容について詳細に説明をする。上述したように、選択処理部11は、「マッチング処理」と「切り抜き処理」の2つの処理を行う。まず、図3から図6までを参照してマッチング処理について説明をする。
図3に、コンテナ60内に積まれているワーク50を俯瞰した状態を示す。図3に示すように、ワーク50は乱雑にバラ積みされており、ワーク50の取り出し位置が教示されることなく、ロボット30のハンドにより当該ワーク50を把持して取り出すことは困難な状態となっている。なお、図中では、図示の都合上一部のワーク50についてのみ符号を付している。
3次元計測機40は、コンテナ60内に積まれているバラ積みされたワーク50を計測することにより距離画像を生成する。3次元計測機40は、生成した距離画像を、画像処理装置10aの選択処理部11に対して送信する。選択処理部11が受信した距離画像は、選択用データ格納部111に格納される。
アノテーション処理部112は、ユーザからワーク50の取り出し位置の教示を受けるために、選択用データ格納部111から距離画像を取得する。そして、アノテーション処理部152は、取得した距離画像を表示部12に対して出力する。表示部12は、入力された距離画像を図4に示すようにして表示する。なお、図中では、図示の都合上一部のワーク50についてのみ符号を付している。
3次元計測を行うと、2次元のピクセル上に各ピクセル位置が高さ情報を持つ距離画像を生成することができる。アノテーション処理部112は、距離画像を、各ピクセルが持つ高さ情報をRGBによる色彩の諧調で表現して表示させたり、あるいはグレースケールの濃度で表現して表示させる。教示を行うユーザは、このような表現方法の距離画像を参照することにより深度情報を認識することが可能となる。
図4では、特許図面を記載する上の制約から、各ピクセルが持つ高さ情報をハッチングにより表しているが、これに限定されない。例えば、色彩の諧調やグラデーション等により、各ピクセルが持つ高さ情報を表現するようにしてもよい。図4では、3次元計測機40からの距離が近いもの(つまり、地面からの高さが高いもの)が白色になるようにし、3次元計測機40からの距離が遠いもの(つまり、地面からの高さが低いもの)が黒色になるように表現している。
例えば、ワーク50aは、ワーク50bよりも地面から高い位置に存在するので、ワーク50aはワーク50bよりも白色になるようなハッチングがなされている。また、ワーク50bに対応する面は、ワーク50aに対応する面により一部隠れている。ユーザは、これを参照することにより、ワーク50bの上にワーク50aが積まれている状態であることが分かる。
また、例えばワーク50cに対応する面は、場所により高さが異なっている。ユーザは、これを参照することにより、ワーク50cが傾斜して積まれている状態であることが分かる。
このように表示部12に表示された距離画像を参照したユーザは、前述したようにマウスやタッチパネルにより実現される操作受付部13を利用して、ワーク50の取り出し位置を指定することにより、ワーク50の取り出し位置の教示を行う。操作受付部13は、教示されたワーク50の取り出し位置である教示位置を、アノテーション処理部112に対して通知する。アノテーション処理部112は、この通知された教示位置をユーザが認識できるように、距離画像上の教示位置に対して描画を行う。描画は、例えば、距離画像上の教示位置の画素の色を変更する等の、ユーザが把握しやすい方法により行う。描画を行った場合の表示例を図5に示す。
ユーザは取り出し可能な位置にあるワーク50のそれぞれについて、取出し位置を教示する。そして、図中に教示位置71として示すように、ユーザが教示した教示位置を把握できるように描画が行われる。なお、図中では、図示の都合上一部の教示位置71についてのみ符号を付している。
アノテーション処理部112は、教示位置の3次元点情報と、教示位置を中心とした教示位置近傍の所定の範囲内の3次元点群情報である教示位置近傍画像データを取得する。そして、アノテーション処理部112は、取得した教示位置の3次元点情報と、教示位置近傍画像データとを対応付けて、マッチング用点群情報として選択用データ格納部111に格納する。
マッチング用点群情報の一例を、マッチング用点群情報80として図6に示す。なお、図6の例では、説明のために教示点に描画を施しているが、マッチング用点群情報80に含まれる教示位置近傍画像データには教示位置を示す描画は含まない。また、以下の説明においては、マッチング用点群情報の符号である「80」の記載は省略する。
マッチング用点群情報として取得する3次元点群の範囲の大きさは、ワーク50の大きさ等に基づいて予め設定しておく。なお、ある程度大きい範囲の3次元点群情報をマッチング用点群情報として記憶しておき、記憶したマッチング用点群情報を、後述のマッチングにおいて利用する際に、設定の調整を行って、必要なサイズにトリミングしたものをマッチング用点群情報として利用するようにしてもよい。
なお、アノテーション処理部112は、マッチング用点群情報に、付帯的な情報を追加するようにしてもよい。例えば、マッチング用点群情報の特徴を示す情報を追加するようにしてもよい。特徴を示す情報とは、例えば、マッチング用点群情報に含まれる複数のピクセルが持つ3次元点の高さの平均や、教示位置に対応するピクセルが持つ3次元点の高さ等の情報である。
第1の実施形態では、複数のワーク50がバラ積みされているので、3次元計測機40により計測される一枚の距離画像を利用して、上述したようにユーザにより複数の教示位置が教示されることにより、ワーク50が取りうる複数の姿勢のそれぞれの姿勢について取り出し位置の教示をすることが可能となる。
なお、背景技術として説明したCADモデルでの教示は、形状に対して3次元点が一様に取得できると仮定する。しかしながら、実際に撮像をした場合には、光学条件等が原因で、形状に対して3次元点が一様に取得できない。このように、仮定と実際の撮像とでは、3次元点の取れやすさには違いがあるため、この乖離がマッチングの度合いに影響することがある。
これに対して第1の実施形態では、実際の光学条件で取得した3次元点による距離画像を入力として取得して、描画位置周辺の3次元点群情報を保存できるため、CADモデルでの教示のように光学条件等が原因で、CADモデル上の教示位置と対応するワーク50の教示位置が取得できないような不具合が生じることを防止できる。
次に、ワーク50の取り出し時に、マッチング部113により行われる、マッチング用点群情報を利用したマッチングについて説明を行う。
マッチング部113は、ワーク50の取り出し時に、3次元計測機40からコンテナ60内に積まれているバラ積みされたワーク50の距離画像を取得する。そして、マッチング部113は、取得した距離画像に対して、選択用データ格納部111に格納されているそれぞれのマッチング用点群情報に含まれる教示位置近傍画像データに基づいて、例えばICP(Iterative Closest Point)マッチング等の3次元点群のマッチング手法を用いて、探索を行う。そして、マッチング部113は、距離画像中で、マッチングの評価が高い画像領域の例えば中心位置を、取り出し対象のワーク50の取り出し位置として選択する。なお、マッチングの評価が閾値以上に高い画像領域を複数選択し、これら複数の画像領域のうち、地面からの高さがもっとも高い画像領域を新たな教示位置近傍画像データとしてもよい。
マッチング部113は、選択したワーク50の取り出し位置をロボット制御装置20に対して送信する。そして、ロボット制御装置20が、受信したワーク50の取り出し位置に基づいてロボット30を制御することにより、ワーク50の取り出しを試みる。
ここで、マッチング用点群情報は、上述したようにユーザの教示に基づいて作成されるものであるが、全てのマッチング用点群情報が適切なものであるとは限らない。例えば、或るマッチング用点群情報とマッチングの評価が高い部分を取り出し位置とした場合には取り出しに成功するが、他のマッチング用点群情報とマッチングの評価が高い部分を取り出し位置とした場合には取り出しに失敗することがあり得る。
このように、マッチング用点群情報によって成否が異なる場合があり得るので、マッチング部113は、各マッチング用点群情報に対して評価を行うことにより、各マッチング用点群情報に評価値を付与するようにするとよい。そして、マッチング部113は、この評価値が高いマッチング用点群情報を利用することが望ましい。
また、この評価値を付与したマッチング用点群情報は、後述する機械学習において教師データとして使用するため、マッチング部113は、評価値を付与したマッチング用点群情報を選択用データ格納部111に格納する。なお、評価値の低いマッチング用点群情報も機械学習のための教師データ(失敗データ)として必要なデータである。そのため、マッチング部113は、評価値の高いマッチング用点群情報のみならず、評価値の低いマッチング用点群情報も、選択用データ格納部111に教師データとして格納する。
マッチング部113は、ワーク50の取り出しの成否に応じて評価値を付与することができる。例えば、マッチング部113は、或るマッチング用点群情報とマッチングの評価が高い部分を取り出し位置とした場合に、ワーク50の取り出しに成功した場合には、取り出しに失敗した場合よりも高い評価値を付与する。例えば、マッチング部113は、ワーク50の取り出しに成功した場合に第1所定値以上(例えば60点以上)を付与し、ワーク50の取り出しに失敗した場合は、第2所定値以下(例えば50点以下)とする。また、例えば、マッチング部113は、ワーク50の取り出しに成功した場合には、取り出しに要した時間に応じて更に評価値を異なるようにしてもよい。例えば、マッチング部113は、ワーク50の取り出しに要した時間が短いほど評価値が高くなるようにしてもよい。また、例えば、マッチング部113は、ワーク50の取り出しに失敗した場合には、失敗した度合いに応じて評価値を異なるようにしてもよい。例えば、マッチング部113は、ワーク50を把持できたが取り出し途中で落下してしまった場合には、ワーク50を把持できなかった場合よりも評価値が高くなるようにしてもよい。
マッチング部113は、今回計測した距離画像に対して、各マッチング用点群情報に基づくマッチングを行う。また、マッチング部113は、各マッチングした箇所におけるワーク50の取り出しの試みと、上述した評価値の付与を行う。この処理は、3次元計測機40からコンテナ60内に積まれているバラ積みされたワーク50の距離画像を新たに取得することにより繰り返される。
このように、マッチング部113は、マッチング用点群情報を用いたマッチング及びワーク50の取り出しと、この取り出し結果に応じた評価値の付与を繰り返すことにより、各マッチング用点群情報についての評価を行うことができる。そして、マッチング部113が、評価値の高いマッチング用点群情報を選択することによって、ワーク50の取り出しに成功する確率を向上させることができる。
また、マッチング部113は、距離画像でのマッチングに成功した部分について、マッチング用点群情報と同じ大きさの範囲の3次元点群情報を取得し、この取得した3次元点群情報を新たなマッチング点群情報とするようにするとよい。
このようにすれば、マッチング部113は、マッチングに用いたマッチング用点群情報に加え、マッチングした部分から取得した新たなマッチング用点群情報についてワーク50の取り出しを行うことが可能となる。つまり、マッチング部113は、マッチング用点群情報を自動的に増やしていくことができる。これにより、より評価値の高いマッチング用点群情報を収集することが可能となる。
このように、第1の実施形態では、マッチング部113が、マッチング用点群情報を用いたマッチング及びワーク50の取り出しと、この取り出し結果に応じた評価値の付与を繰り返すことにより、ワーク50取り出し位置を選択することが可能となる。また、マッチング用点群情報を自動的に増やしていくことも可能となる。
そのため、第1の実施形態では、ユーザからの新たな教示を受けなくとも、選択した取り出し位置に基づいたワーク50の取り出しを行うことができる。
なお、第1の実施形態は、従来から行われているCAD等のモデルに対する教示と異なり、3次元計測機40で実際にワーク50を測定することにより取得した距離画像に対する教示に基づく。このように実際にワーク50を測定することにより取得した距離画像を用いる場合、外乱が含まれるなどといった理由によってマッチングが成立しないことが多くなる。そこで、マッチングが成立するように、マッチングの成否に関する閾値を甘く設定する場合がある。
しかしながら、このように閾値を甘くする手段を取ると、実際には取出し位置として検出されるにはふさわしくない場所についてもマッチングが成立してしまうという問題が生じる。そこで、この問題を軽減するため、描画によって教示しなかった場所に関してもマッチングを試みて、もしこの教示しなかった場所でマッチングが成立した場合、検出位置としては不適切なものとし、最終的な検出位置から除外する処理を、上述した第1の実施形態の処理に更に加えるようにしてもよい。
以上、マッチング部113によるマッチング処理について説明をした。上述のマッチング処理により、ワーク50の取り出し位置の選択を実現することができる。
この構成に、更に学習部14による機械学習と、切り抜き部114による切り抜き処理とを組み合わせることにより、ワーク50の取り出し位置の選択精度を向上させることが可能となる。以下、学習部14による機械学習について説明する。次に切り抜き部114による切り抜き処理について説明する。
<機械学習>
マッチング部113は、上述したように、マッチング用点群情報を用いたマッチング及びワーク50の取り出しと、この取り出し結果に応じた評価値の付与を繰り返すことにより、評価値が付与されたマッチング用点群情報を作成する。そして、上述したように、マッチング部113は、評価値が付与されたマッチング用点群情報を、選択用データ格納部111に格納する。
学習部14の学習処理部141は、選択用データ格納部111に格納された、評価値が付与されたマッチング用点群情報を教師データとして、教師あり機械学習を行う。また、学習処理部141は、この教師あり学習により、ワーク50の取り出し位置の選択精度を向上するための学習モデルを構築する。そして、学習処理部141は、構築した学習モデルを学習済モデル格納部142に格納する。
そして、後述の切り抜き処理にて、推定処理部143が、この学習済モデル格納部142に格納された学習モデルを利用することにより、3次元計測機40により計測される距離画像とのマッチングを行うことなく、ワーク50の取り出し位置を選択することを可能とする。また、学習処理部141は、切り抜き処理での取り出しの成否に基づいて更に機械学習を行うことによって、学習済モデル格納部142に格納されている一度構築された学習モデルを更に更新することもできる。
次に、学習モデルの構築について具体的に説明をする。学習処理部141は、選択用データ格納部111に格納された、マッチング用点群情報に含まれる教示位置近傍画像データを入力データとし、このマッチング用点群情報に付与された評価値をラベルとして教師あり学習を行う。教師あり学習の方法として、学習処理部141は、画像データを対象とした学習に適しているニューラルネットワークである、コンボリューションニューラルネットワーク(CNN:Convolutional Neural Network)を使用した深層学習(ディープラーニング)を行う。そのために、3層以上で、且つ、少なくとも1回の画像のコンボリューション演算を含むコンボリューションニューラルネットワークを用意する。ただし、これは第1の実施形態で適用される機械学習をコンボリューションニューラルネットワークに限定する趣旨ではない。第1の実施形態に、コンボリューションニューラルネットワーク以外の深層学習モデルや、線形モデル等を利用した機械学習を適用するようにしてもよい。
ここで、コンボリューションニューラルネットワークは、畳み込み層、プーリング層、全結合層、及び出力層を備えた構造となっている。ただし、これはあくまで説明のための構造例であり、例えばプーリング層を省略するようにしてもよい。また、例えば上述したように、画像をラベルとして学習を行うような場合に、更にデコンボリューション層を設けるようにしてもよい。
畳み込み層では、エッジ抽出等の特徴抽出を行うために、入力された3次元点群情報に対して所定のパラメータのフィルタをかける。このフィルタにおける所定のパラメータは、一般的なニューラルネットワークの重みに相当しており、学習を繰り返すことにより学習されていく。
プーリング層では、例えば、畳み込み層から出力された画像を小さなウインドウに区切り、ウインドウそれぞれの特徴(例えばウインドウそれぞれにおける最大値)を出力する。
これら畳み込み層及びプーリング層を組み合わせることによって、3次元点群情報から特徴量を抽出することができる。
全結合層では、畳み込み層及びプーリング層を通して取り出した特徴を1つのノードに結合し、活性化関数によって変換した値を出力する。ここで、活性化関数は、0未満の出力値を全て0にする関数で、ある閾値以上の部分だけを意味の有る情報として出力層に送るために用いる。
出力層では、全結合層からの出力に基づいて、入力データとしたマッチング用点群情報に基づいた取り出しについての評価値を出力する。そして、出力層の出力と、ラベルの誤差を算出する。ここで、ラベルは、上述したように、入力データとしたマッチング用点群情報に付与された評価値である。
学習開始時は、コンボリューションニューラルネットワークに含まれる各パラメータの重み付けが適切にはなされていないので、この誤差は大きな値となる可能性が高い。そこで、学習処理部141は、算出した誤差を小さくするように重み付け値を修正する。具体的には、誤差を小さくするために、フォワードプロパゲーションやバックプロパゲーションと呼ばれる処理を繰り返すことにより、コンボリューションニューラルネットワークに含まれる各パーセプトロンの重み付け値を変更する。
学習処理部141は、このようにして、教師データの特徴を学習し、入力データとしたマッチング用点群情報から、評価値を出力するための学習モデルを帰納的に獲得する。学習処理部141は、構築した学習モデルを学習済モデルとして学習済モデル格納部142に格納する。
上述した学習は、オンライン学習で行ってもよいし、バッチ学習やミニバッチ学習で教師あり学習を行ってもよい。
オンライン学習とは、教師データが作成される都度、即座に教師あり学習を行うという学習方法である。また、バッチ学習とは、教師データが作成されることが繰り返される間に、繰り返しに応じた複数の教師データを収集し、収集した全ての教師データを用いて、教師あり学習を行うという学習方法である。更に、ミニバッチ学習とは、オンライン学習と、バッチ学習の中間的な、ある程度教師データが溜まるたびに教師あり学習を行うという学習方法である。バッチ学習やミニバッチ学習を行う場合には、学習を開始するまでの間、収集した教師データを選択用データ格納部111に格納すればよい。
また、新たに教師データを取得した場合に、学習済モデルのパラメータを初期値として学習を行うことにより学習済モデルによる推定の精度を向上させるようにしてもよい。また、他にも、新たに教師データを取得した場合に、学習済モデルと関係なく、別途の学習モデルを新たに構築するようにしてもよい。
<切り抜き処理>
次に、切り抜き部114が行う切り抜き処理について説明をする。
切り抜き部114は、学習処理部141により構築された学習モデルを利用することにより、3次元計測機40により計測される距離画像とのマッチングを行うことなく、ワーク50の取り出し位置を選択する。以下、この、マッチングを行うことなく、取り出し位置を選択する処理を「切り抜き処理」と呼んで説明をする。
切り抜き処理を行う場合、切り抜き部114は、取り出し作業時に新たな距離画像を取得すると、取得した距離画像の全域にわたって学習済モデルに対する入力と同じ大きさ(すなわち、マッチング用点群情報と同じ大きさ)の距離画像を切り抜く。そして、切り抜き部114は、この切り抜いた部分(以下「取り出し位置候補」という)の3次元点群情報を取得する。
切り抜き部114による取り出し位置候補の抽出処理(切り抜き処理)について図7及び図8を参照して説明をする。図7に切り抜きの対象とする領域を取り出し位置候補90として図示する。この取り出し位置候補90の大きさは、上記したように、学習済モデルへの入力と同じ大きさ(すなわち、マッチング用点群情報と同じ大きさ)となる。
切り抜き部114は、取り出し位置候補90とする対象を、例えば図8に示すように、画像左上から数ピクセルずつ対象位置をずらしながら走査することで画像全域に対して切り抜きを行う。なお、図8では、直線的に走査を行っているが、走査に回転を加えてもよい。また、走査開始位置や走査方向も任意に設定してよい。切り抜き部114は、切り抜き時に、距離画像上での取り出し位置候補90の位置(例えば、切り抜いた画像データの中心位置)も取得し、取り出し位置候補と対応付けて、選択用データ格納部111に格納する。
推定処理部143は、このようにして抽出される全ての取り出し位置候補の3次元点群情報それぞれを、選択用データ格納部111から取得する。そして、推定処理部143は、取得した全ての取り出し位置候補の3次元点群情報それぞれを、上述したマッチング用点群情報の代わりに学習済モデルに入力し、それぞれの取り出し位置候補についての評価値を出力として得る。推定処理部143は、この出力を切り抜き部114に対して通知する。
切り抜き部114は、学習済モデルから出力される評価値が高い切り抜き画像に対応付けて記憶している位置を取り出し位置として選択する。切り抜き部114は、選択した取り出し位置をロボット制御装置20に対して送信する。そして、ロボット制御装置20が、受信した取り出し位置に基づいてロボット30を制御することにより、ワーク50の取り出しを試みる。
ここで、取り出し位置候補の3次元点群情報によりワーク50の取り出しを試みた場合も、マッチング用点群情報により取り出しを試みた場合と同様に、取り出しに成功することも、失敗することもあり得る。そこで、切り抜き部114は、マッチング処理時におけるマッチング用点群情報と同様に、ワーク50の取り出しの成否に応じて取り出し位置候補にも評価値を付与する。また、切り抜き部114は、この評価値を付与した取り出し位置候補を選択用データ格納部111に格納する。この評価値を付与した取り出し位置候補は、学習処理部141が、学習済モデルを更新するための、新たな教師データとして利用することができる。
具体的には、学習処理部141は、取り出し位置候補の3次元点群データを入力データとし、この入力データとした取り出し位置候補に付与された評価値をラベルとして、上述のオンライン学習又はミニバッチ学習を行うことが好ましい。これにより、ワーク50の取出し操作を実行しながら、学習済モデルを更に精度の高い学習済モデルにリアルタイムに更新することができる。なお、オンライン学習又はミニバッチ学習に限定されない。バッチ学習により学習モデルを更新してもよい。
<第1の実施形態の動作>
次に、図9A及び図9Bのフローチャートを参照して、第1の実施形態の動作について説明をする。なお、図9Aは上述したマッチング処理に相当する動作についてのフローチャートであり、図9Bは上述した切り抜き処理に相当する動作についてのフローチャートである。
ステップS11において、アノテーション処理部112は、3次元計測機40から、バラ積みされたワーク50を計測することにより生成された距離画像を取得する。
ステップS12において、アノテーション処理部112は、距離画像を表示部12に表示させる。
ステップS13において、アノテーション処理部112は、操作受付部13が受け付けたユーザからのワーク50の取り出し位置の教示に基づいて、距離画像上に教示位置を描画する。
ステップS14において、アノテーション処理部112は、マッチング用点群情報の大きさを設定する。設定は、予め与えられている設定値や、ユーザの操作に応じて行われる。
ステップS15において、アノテーション処理部112は、ステップS14にて行われた設定に基づいて、マッチング用点群情報を生成する。また、アノテーション処理部112は、生成したマッチング用点群情報を選択用データ格納部111に格納する。
ステップS16において、マッチング部113は、選択用データ格納部111に格納されたマッチング用点群情報を用いて、マッチング及びワーク50の取り出しを行うことにより、マッチング用点群情報に評価値を付与する。マッチング部113は、評価値を付与したマッチング用点群情報を、選択用データ格納部111に格納する。
ステップS17において、マッチング部113は、追加でマッチング用点群情報が必要であるか否かを判定する。評価値が所定の値以上のマッチング用点群情報を、所定数以上記憶している場合には、ステップS17においてNoと判定され、処理はステップS18に進む。一方で、評価値が所定の値以上のマッチング用点群情報を、所定数以上記憶していない場合には、ステップS17においてYesと判定され、処理はステップS11に戻り、処理を再度繰り返す。
ステップS18において、学習処理部141は、学習部14が記憶するマッチング用点群情報を入力データとし、このマッチング用点群情報に付与された評価値をラベルとした学習を行う。これにより、学習済モデルが作成され、学習済モデル格納部142に格納される。
次に、図9Bを参照して、切り抜き処理時の動作について説明をする。
ステップS19において、切り抜き部114は、3次元計測機40から、バラ積みされたワーク50を計測することにより生成された距離画像を取得する。
ステップS20において、切り抜き部114は、取得した距離画像の全域にわたって学習済モデルに対する入力と同じ大きさ(すなわち、マッチング用点群情報と同じ大きさ)の距離画像を取り出し位置候補として切り抜く。そして、切り抜き部114は、この取り出し位置候補の3次元点群情報を取得する。また、切り抜き部114は、取得した、取り出し位置候補の3次元点群情報を選択用データ格納部111に格納する。推定処理部143は、選択用データ格納部111に格納された、全ての取り出し位置候補の3次元点群情報それぞれを、学習済モデルに対して入力し、それぞれの取り出し位置候補についての評価値を出力として得る。推定処理部143は、この出力を切り抜き部114に対して通知する。
ステップS21において、切り抜き部114は、学習済モデルから出力される評価値が高い切り抜き画像に対応付けて記憶している位置を取り出し位置として選択する。切り抜き部114は、選択した取り出し位置をロボット制御装置20に対して送信する。そして、ロボット制御装置20が、受信した取り出し位置に基づいてロボット30を制御することにより、ワーク50の取り出しを試みる。上述したように、ワーク50の取り出しを試みた結果、取り出しに成功することも、失敗することもあり得る。そこで、切り抜き部114は、ワーク50の取り出しの成否に応じて取り出し位置候補に評価値を付与する。
ステップS22において、学習処理部141は、ステップS21において評価値が付与された取り出し位置候補を教師データとした学習を行うことにより、学習済モデルを更新するか否かを判定する。ミニバッチ学習を行う場合であれば、教師データが所定数記録されたことや、前回の学習から所定時間経過した場合に、ステップS23においてYesと判定され、処理はステップS24に進む。一方で、教師データが所定数以下しか記録されていないことや、前回の学習から所定時間経過していない場合に、ステップS23においてNoと判定され、処理はステップS24に進む。なお、オンライン学習であれば、ステップS23においてYesと判定され、処理はステップS24に進む。
ステップS24において、学習処理部141は、取り出し位置候補の3次元点群データを入力データとし、この入力データとした取り出し位置候補に付与された評価値をラベルとして、上述の学習を行う。これにより、学習済モデル格納部142に格納されている学習済モデルを更新する。
ステップS24において、切り抜き部114は、取り出しを続けるか否かを判定する。評価値の取り出し位置候補が存在し、この取り出し位置候補を対象とした取り出しを行っていない場合には、未だ取り出していないワーク50が存在すると考えられるので、ステップS24においてYesと判定され、処理はステップS20に進む。一方で、全ての評価値の高い取り出し位置候補を対象とした取り出しを行っている場合には、全てのワーク50が取り出されたと考えられるので、ステップS24においてNoと判定され処理は終了する。
以上説明した第1の実施形態のマッチング処理によれば、ステップS13においてユーザからの取り出し位置の教示を受けた後は、ユーザからの新たな教示を受けなくとも、記憶したマッチング用点群情報(教示位置の3次元点情報と、教示位置を中心とした教示位置近傍画像データ)に基づいて、3次元計測機40により計測された距離画像とのマッチングを用いた探索を行うことで、取り出し位置を選択することが可能となる。また、第1の実施形態のマッチング処理によれば、ユーザは取り出し位置を教示するのみであり、探索アルゴリズムの選択等の経験に基づく知識を必要としない。更に、第1の実施形態のマッチング処理によれば、CADデータを利用しないので、CADデータを準備する手間が省ける。
つまり、第1の実施形態のマッチング処理によれば、従来に比べて、より簡便な方法でワーク50の取り出し位置を選択することができる。
また、第1の実施形態の切り抜き処理によれば、更に、マッチング用点群情報に基づいて、学習モデルを構築し、構築した学習モデルに基づいて、距離画像から自動的に切り抜いた画像データから取り出し位置を選択することが可能となり、より効率的に、より精度高く取り出し位置を選択することができる。
更に、第1の実施形態の切り抜き処理によれば、取り出しの継続に伴い、新たな教師データを取得することができるので、構築した学習モデルをリアルタイムに更新していくことができる。
<第2の実施形態>
次に第2の実施形態について詳細に説明する。なお、第2の実施形態の基本的な構成は、第1の実施形態と共通する。例えば、第2の実施形態に係るロボットシステム1bの全体構成は、図1に示す第1の実施形態に係るロボットシステム1aの全体構成と同様の構成であり、画像処理装置10aを、第2の実施形態の画像処理装置である画像処理装置10bに置き換えることにより、第2の実施形態の構成となる。
以下では重複する説明を避けるために、このように両実施形態で共通する点についての説明は省略し、両実施形態で相違する点について詳細に説明する。
<第1の実施形態と第2の実施形態の相違点の概略>
第1の実施形態では学習を行うにあたり、画像処理装置10aが、3次元計測機40から取得した距離画像に対してマッチングを行い、マッチング用点群情報を作成するという前処理をしていた。そして、画像処理装置10aが、このマッチング用点群情報を学習モデルの入力データとし、このマッチング用点群情報に付与された評価値をラベルとすることにより、機械学習による学習モデルの構築や、構築した学習モデルを利用した取り出し位置の選択を行っていた。
あるいは、第1の実施形態では、画像処理装置10aが、3次元計測機40から取得した距離画像の全域にわたって学習済モデルに対する入力と同じ大きさ(すなわち、マッチング用点群情報と同じ大きさ)の距離画像を、取り出し位置候補として切り抜くという前処理をしていた。そして、画像処理装置10aが、この切り抜いた取り出し位置候補の3次元点群情報を学習モデルの入力データとし、この3次元点群情報に付与された評価値をラベルとすることにより、機械学習による学習モデルの構築や、構築した学習モデルを利用した取り出し位置の選択を行っていた。
これに対して、第2の実施形態ではこのマッチングや切り抜きといった前処理を省略し、3次元計測機40から取得した距離画像全体を学習モデルの入力データとすることにより、機械学習による学習モデルの構築や、構築した学習モデルを利用した取り出し位置の選択を行う。
第2の実施形態を適用する環境にもよるが、このように前処理を省略することにより、第2の実施形態では、演算処理を効率的に行うことや、実装を容易とすることが可能となる。また、第2の実施形態では、このように距離画像全体を学習モデルの入力データとすることにより、画像中で遠く離れたピクセル間の影響を考慮することも可能となる。
<画像処理装置10bの機能ブロック>
次に、前処理を省略して、距離画像全体を学習モデルの入力データとするために、画像処理装置10bが備える各機能ブロックについて図10を参照して説明をする。
なお、図10では図2と同様に、ロボットシステム1bにおける、画像処理装置10b以外の構成要素を環境100としてまとめて図示する。
画像処理装置10bは、画像処理装置10aが備える選択処理部11に代えて、選択処理部15を備える点で相違する。すなわち、画像処理装置10bは、選択処理部15、表示部12、操作受付部13、及び学習部14を備える。
また、選択処理部15は、教師データ格納部151、アノテーション処理部152及び取り出し位置選択部153を備える。
教師データ格納部151は、機械学習を行うための教師データを格納する部分である。3次元計測機40から入力された距離画像は、教師データにおける入力データとして教師データ格納部151に格納される。また、アノテーション処理部152が生成したラベルは、教師データにおける入力データとして教師データ格納部151に格納される。
この、入力データとラベルとは、アノテーション処理部152によるラベルの格納時に紐付けられる。
アノテーション処理部152は、教師データに含まれるラベルを生成する部分である。アノテーション処理部152は、ラベルを生成するために、教師データ格納部151から距離画像を取得する。また、アノテーション処理部152は、取得した距離画像を表示部12に表示する。距離画像の表示例については図4を参照して上述したとおりである。
ユーザは、表示された距離画像を参照すると、第1の実施形態と同様にして、取り出し位置の教示を行う。具体的には、マウスやタッチパネルにより実現される操作受付部13を利用して、取り出し位置を指定することにより、取り出し位置の教示を行う。
操作受付部13は、教示された取り出し位置である教示位置をアノテーション処理部152に対して通知する。アノテーション処理部152は、この通知された教示位置をユーザが認識できるように、距離画像上の教示位置に対して描画を行う。描画は、例えば、距離画像上の教示位置の画素の色を変更する等の、ユーザが把握しやすい方法により行う。描画を行った場合の表示例については図5を参照して上述したとおりである。
ここで、第1の実施形態では、ユーザが取り出し位置を点により教示していた。これに対して、第2の実施形態では、ユーザが取り出し位置を所定の領域として教示する。例えば、第2の実施形態では、ユーザは取り出し可能な領域に色を塗ることにより取り出し位置の教示を行う。
アノテーション処理部152は、ユーザによる教示に基づいて、距離画像全体に含まれる各画素について、ワーク50の取り出し位置(すなわち、教示位置)であるか否かを示す属性(例えば、ワーク50の取り出し位置は「1」。ワーク50の取り出し位置以外の位置については「0」)を割り当てた画像を生成する。以下では、この画像を「ラベル用マップ」と呼ぶ。
第2の実施形態では、このラベル用マップをラベルとして利用する。また、アノテーション処理部152は、ラベル用マップを生成するにあたり、各画素についてワーク50の取り出し位置であるか否かを示す属性を割り当てるのではなく、更に1/s(sは任意の自然数)に分解能を上げて、1/s画素毎にワーク50の取り出し位置であるか否かを示す属性を割り当てるようにしてもよい。また、ラベルとして3次元点群情報は不要であるので、ラベル用マップでは距離画像に含まれる3次元点群情報を削除してよい。従って、ラベル用マップは、距離画像における、各画素(又は1/sとした各画素)の2次元座標の情報と、各画素(又は1/sとした各画素)についてワーク50の取り出し位置であるか否かを示す属性の情報とを含んだ画像となる。
アノテーション処理部152は、生成したラベル用マップをラベルとし、ユーザからの教示のために用いた距離画像を入力データとして、両者を紐付けることにより教師データを生成する。そして、アノテーション処理部152は、生成した教師データを教師データ格納部151に格納する。なお、アノテーション処理部152は、入力データとラベルとを紐付けて教師データ格納部151に格納するのではなく、別途に教師データ格納部151に格納し、両者をリンクさせることにより教師データとするようにしてもよい。
第2の実施形態の学習処理部141は、機械学習を行う場合に、教師データ格納部151に格納されている教師データを用いて機械学習を行う。具体的には、第2の実施形態では、学習処理部141による機械学習により、距離画像を入力とした場合に、ラベル用マップと同様の画像が出力される学習モデルを構築する。つまり、取り出し可能な領域をセグメンテーションした画像が出力される学習モデルを構築する。
この機械学習は、例えば画像を入力し、画像中の全画素ピクセルに対して何らかの推定(例えばクラス分類など)を行う手法により実現することができる。このような手法としては、例えば、Semantic Segmentationが挙げられる。Semantic Segmentationは、自動車の自動運転への応用を目指した技術であり、例えば写真の画像データを入力として、車、歩行者などの領域毎に色分けすることができる。
第2の実施形態では、上述したように、入力データを距離画像、ラベルを距離画像に対するアノテーション(例えばワーク50を取り出せそうな位置に人間が色を塗った画像)にして機械学習を行うことで、全画素に対する評価値推定を一度に行うことができる。そのため、第1の実施形態での、マッチング処理や切り抜き処理といった前処理を省略することができる。
具体的に、第2の実施形態の機械学習は、例えば以下の参考文献に開示されているコンボリューション エンコーダ−デコーダを利用することにより実現できる。
<参考文献>
Vijay Badrinarayanan, Alex Kendall, Roberto Cipolla、"SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation"、[online]、平成28年8月10日、[平成29年9月10日検索]、インターネット〈URL:https://arxiv.org/pdf/1511.00561.pdf〉
学習処理部141は、機械学習により学習済モデルを構築する。そして、学習処理部141は、構築した学習済モデルを、学習済モデル格納部142に格納する。
取り出し位置選択部153は、推定処理部143が出力する評価値マップに基づいて、取り出し位置を選択する部分である。取り出し位置選択部153による取り出し位置の選択と、評価値マップの詳細について以下説明する。
取り出し位置選択部153は、取り出し位置を選択するために次元計測機40から距離画像を取得すると、取得した距離画像を推定処理部143に対して出力する。推定処理部143は、入力された距離画像を入力データとして、学習済モデル格納部142に格納されている学習済モデルに入力する。この入力に応じて、学習済モデルからは、取り出し可能な領域をセグメンテーションした画像が出力される。この出力された画像を「評価値マップ」と呼ぶ。
評価値マップは、ラベル用マップと同様のデータ構造であり、各画素(又は1/sとした各画素)の2次元座標の情報と、各画素(又は1/sとした各画素)についてワーク50の取り出し位置であるか否かを示す属性の情報とを含んだ画像となる。
推定処理部143は、評価値マップを取り出し位置選択部153に対して出力する。
取り出し位置選択部153は、評価値マップに基づいてワーク50の取り出し位置を選択する。具体的には、ワーク50の取り出し位置としてセグメンテーションされている各区画を取り出し位置の候補とする。そして、取り出し位置の候補の領域を示す座標情報に基づいて、入力データとした距離画像上で、取り出し位置の候補に対応する領域を特定する。そして、この特定した領域に対して、既知の点群処理や画像処理を行うことにより取り出し位置を選択する。
取り出し位置選択部153は、選択した取り出し位置をロボット制御装置20に対して出力する。その後、第1の実施形態と同様に、ロボット制御装置20が、取り出し位置に基づいて制御信号を生成する。そして、ロボット30が制御信号に基づいてハンドによりワーク50を取り出す。
以上説明した構成により、第2の実施形態では、マッチングや切り抜きといった前処理を省略し、3次元計測機40から取得した距離画像全体を学習モデルの入力データとすることにより、機械学習による学習モデルの構築や、構築した学習モデルを利用した取り出し位置の選択を行うことができる。
<第2の実施形態の動作>
次に、図11のフローチャートを参照して、第2の実施形態の動作について説明をする。
ステップS31において、教師データ格納部151は、3次元計測機40がバラ積みされたワーク50を計測することにより生成した距離画像を格納する。
ステップS32において、アノテーション処理部152は、教師データ格納部151に格納されている距離画像を表示部12に表示させる。
ステップS33において、アノテーション処理部152は、操作受付部13が受け付けたユーザからの取り出し位置の教示に基づいて、距離画像上に教示位置を描画する。
ステップS34において、アノテーション処理部152は、ユーザからの教示に基づいてラベル用マップを生成する。アノテーション処理部152は、ラベル用マップと距離画像とを教師データとして教師データ格納部151に格納する。
ステップS35において学習処理部141は、教師データ格納部151に格納されている教師データにおける、距離画像を入力データとし、この距離画像に対応するラベル用マップをラベルとした学習を行う。これにより、学習済モデルが作成され、学習済モデル格納部142に格納される。
ステップS36において、取り出し位置選択部153は、3次元計測機40から、バラ積みされたワーク50を計測することにより生成された距離画像を取得する。そして、取り出し位置選択部153は、取得した距離画像を推定処理部143に対して出力する。
ステップS37において、推定処理部143は、入力された距離画像を、学習済モデル格納部142に格納されている学習済モデルに入力する。そして、推定処理部143は、学習済モデルの出力として評価値マップを取得する。推定処理部143は、取得した評価値マップを取り出し位置選択部153に対して出力する。
ステップS38において、取り出し位置選択部153は評価値マップに基づいて取り出し位置を選択する。取り出し位置選択部153は、選択した取り出し位置をロボット制御装置20に対して送信する。
ステップS39において、ロボット制御装置20が、受信した取り出し位置に基づいてロボット30を制御することにより、ワーク50の取り出しを行う。なお、ワーク50を複数取り出す場合は、ステップS38において複数の取り出し位置を選択し、ステップS39においてこの複数の取り出し位置それぞれについて取り出しを実行するようにしてもよい。ただし、ワーク50を取り出すことにより、ワーク50のバラ積みの状態が変わるので、ワーク50を取り出す度に、ステップS36に戻って処理を繰り返すようにしてもよい。
以上説明した構成により、第2の実施形態では、マッチングや切り抜きといった前処理を省略し、3次元計測機40から取得した距離画像全体を学習モデルの入力データとすることにより、機械学習による学習モデルの構築や、構築した学習モデルを利用した取り出し位置の選択を行うことができる。
<ハードウェアとソフトウェアの協働>
なお、上記のロボットシステムに含まれる各装置のそれぞれは、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。また、上記のロボットシステムに含まれる各装置のそれぞれの協働により行なわれる機械学習方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
<実施形態の変形>
また、上述した各実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、各実施形態を組み合わせた形態や、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
<変形例1>
上述した各実施形態では、画像処理装置10a又は画像処理装置10bと、ロボット制御装置20を別体の装置としていたが、これら装置を一体として実現してもよい。
<変形例2>
また、上述した各実施形態では、ロボット制御装置20と、画像処理装置10a又は画像処理装置10bが近傍にいるように図示したが、これらがLAN(Local Area Network)やインターネット等のネットワークを介した遠方に位置していてもよい。
また、1台の画像処理装置10a又は画像処理装置10bが、複数台のロボット制御装置20と接続されていてもよい。そして、1台の画像処理装置10a又は画像処理装置10bが、この複数台のロボット制御装置20のそれぞれから取得した教師データに基づいて学習を行うようにしてもよい。
<変形例3>
また、上述した各実施形態では、3次元計測機40は所定位置に固定して設置されているものとして説明したが、必ずしも所定位置に固定されていなくともよい。例えば、3次元計測機40はロボット30を制御するための機械座標系における位置がわかるのであれば、ロボット30のアームに取り付けるなど、設置位置が実施中に変更される形態でもよい。
<変形例4>
更に、上述した各実施形態では、画像処理装置10a又は画像処理装置10bを1台の装置で実現することを想定したが、画像処理装置10a又は画像処理装置10bの各機能を、適宜複数の装置に分散する、分散処理システムとしてもよい。例えば、画像処理装置10aの選択処理部11又は画像処理装置10bの選択処理部15の機能と、学習部14の機能とを適宜複数の装置に分散する、分散処理システムとしてもよい。この場合に、学習部14に含まれる各機能ブロック単位で適宜複数の装置に分散する、分散処理システムとしてもよい。また、クラウド上での仮想サーバ機能等を利用して、画像処理装置10a又は画像処理装置10bの各機能を実現してもよい。
<変形例5>
更に、上述した第1の実施形態では、マッチング処理を行い、マッチングした位置において実際に試みた取り出し結果の成否に基づいて学習済モデルを構築していた。また、このようにマッチング処理により構築した学習モデルを利用して、その後切り抜き処理を行っていた。
しかしながら、切り抜き処理を行う場合には、必ずしもマッチング処理により構築した学習モデルを利用しなくてもよい。
この場合、学習処理部141が、ユーザにより教示された教示点における取り出しは、成功するものであるとみなして学習モデルを構築する。つまり、学習部14が、教示位置近傍画像データを入力データとし、取り出しが成功した(とみなした)ことを示す評価値をラベルとして、教師データを作成する。そして、学習処理部141が、この教師データによる学習によって学習モデルを構築する。
選択処理部11は、このようにして構築した学習モデルを用いて、切り抜き処理を行うことができる。これにより、選択処理部11は、マッチング処理や、実際の取り出しを行うことなく、学習モデルを構築して、取り出し位置を選択することが可能となる。
なお、この場合に学習処理部141が、ユーザからの教示位置とは異なる位置(非教示位置)の近傍のデータである非教示位置近傍画像データを取得するようにしてもよい。そして、学習処理部141が、非教示位置近傍画像データを入力データとし、取り出しが失敗した(とみなした)ことを示す評価値をラベルとして、失敗例を示す教師データを作成するようにしてもよい。そして、学習処理部141が、この失敗例を示す教師データを更に用いて学習を行うようにしてもよい。この場合に、非教示位置は、ユーザにより選択されるようにしてもよいし、教示位置以外の位置からランダムに選択されるようにしてもよい。
ここで、以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
前記3次元計測機により生成された前記距離画像を表示する表示部と、
前記表示された距離画像上で、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付部と、を備え、
前記ロボットは、前記教示された取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出すロボットシステム。
(付記2)
前記表示部は、前記表示された距離画像上に前記教示された取り出し位置を描画する付記1に記載のロボットシステム。
(付記3)
前記教示された取り出し位置及びその近傍の3次元点群の情報を探索用情報として記憶し、前記距離画像に対して、前記探索用情報による探索を行うことにより、新たな取り出し位置を選択する取り出し位置選択部を備え、
前記ロボットは、前記取り出し位置選択部によって選択された前記新たな取り出し位置で各ワークを前記ハンドにより取り出す付記1又は付記2に記載のロボットシステム。
(付記4)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
前記3次元計測機により生成された前記距離画像と、該距離画像上に教示された取り出し位置とを表示する表示部と、
前記表示された距離画像上で、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付部と、
前記教示された取り出し位置及びその近傍の3次元点群の情報を入力データとし、該入力データとした3次元点群の情報に対する教示に応じた評価値または取り出しの成否に応じた評価値の少なくともいずれか一方をラベルとした機械学習を行うことにより、入力データとして入力された3次元点群の情報についての評価値を出力する学習モデルを構築する学習部と、
を備え、
前記ロボットは、前記教示された取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出すロボットシステム。
(付記5)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
前記3次元計測機により生成された前記距離画像と、該距離画像上に教示された取り出し位置とを表示する表示部と、
前記表示された距離画像上で、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付部と、
前記教示された取り出し位置及びその近傍の3次元点群の情報を入力データとし、該入力データとした3次元点群の情報に対する教示に応じた評価値または取り出しの成否に応じた評価値の少なくともいずれか一方をラベルとした機械学習を行うことにより、入力データとして入力された3次元点群の情報についての評価値を出力する学習モデルを構築する学習部と、
前記距離画像から所定領域の距離画像を切り抜き、切り抜かれた前記距離画像の3次元点群の情報を前記学習モデルに入力データとして入力することにより出力される前記3次元点群の情報についての評価値に基づいて、新たな取り出し位置を選択する取り出し位置選択部と、
を備え、
前記ロボットは、前記教示された取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出し、前記取り出し位置選択部によって選択された前記新たな取り出し位置で各ワークを前記ハンドにより取り出すロボットシステム。
(付記6)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
前記3次元計測機により生成された前記距離画像に基づいて前記複数のワークの少なくとも1つを前記ハンドにより取り出しを行うための取り出し位置の推定を行うことにより生成した評価値マップであって少なくとも1つの評価値からなる評価値マップを出力する推定部と、
前記推定部により出力された前記評価値マップに基づいて前記ハンドが取り出す前記複数のワークの少なくとも1つの取り出し位置を選択する位置選択部と、
を備え、
前記ロボットは、前記位置選択部により選択した前記取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出すロボットシステム。
(付記7)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
前記3次元計測機により生成された前記距離画像を機械学習用の教師データとして格納する教師データ格納部と、
前記教師データ格納部に格納された前記距離画像を表示する表示部と、
前記表示部に表示された前記距離画像に基づく少なくとも1つの教示位置の教示を受け付ける受付部と、
前記受付部で受け付けた前記教示位置に基づき少なくとも1つの教示位置を示すラベルマップを生成し、該ラベルマップと前記教師データ格納部に格納された前記距離画像とを関連づけてデータセットとして前記教師データ格納部に保存するアノテーション処理部と、
前記教師データ格納部に格納された前記データセットを入力として、機械学習を行い、学習済モデルを出力する学習処理部と、
前記学習処理部から出力された前記学習済モデルを格納する学習済モデル格納部と、
前記学習済モデル格納部に格納された前記学習済モデルと、前記3次元計測機により新たに生成された新たな複数のワークの距離画像に基づいて前記新たな複数のワークの少なくとも1つを前記ハンドにより取り出す際の取り出し位置の推定を行うことにより生成した評価値マップであって少なくとも1つの評価値からなる評価値マップを出力する推定部と、
前記推定部により出力された前記評価値マップに基づいて前記ハンドが取り出す前記新たな複数のワークの少なくとも1つの取り出し位置を選択する位置選択部と、
を備え、
前記ロボットは、前記位置選択部により選択した前記取り出し位置に基づいて前記ハンドにより前記新たな複数のワークの少なくとも1つを取り出すロボットシステム。
(付記8)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
を備えたロボットシステムが行うワーク取り出し方法であって、
前記3次元計測機により生成された前記距離画像を表示する表示ステップと、
前記表示された距離画像上で、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付ステップと、
を備え、
前記ロボットが前記教示された取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出すワーク取り出し方法。
(付記9)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
を備えたロボットシステムが行うワーク取り出し方法であって、
前記3次元計測機により生成された前記距離画像と、該距離画像上に教示された取り出し位置とを表示する表示ステップと、
前記表示された距離画像上で、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付ステップと、
前記教示された取り出し位置及びその近傍の3次元点群の情報を入力データとし、該入力データとした3次元点群の情報に対する教示に応じた評価値または取り出しの成否に応じた評価値の少なくともいずれか一方をラベルとした機械学習を行うことにより、入力データとして入力された3次元点群の情報についての評価値を出力する学習モデルを構築する学習ステップと、
を備え、
前記ロボットは、前記教示された取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出すワーク取り出し方法。
(付記10)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
を備えたロボットシステムが行うワーク取り出し方法であって、
前記3次元計測機により生成された前記距離画像と、該距離画像上に教示された取り出し位置とを表示する表示ステップと、
前記表示された距離画像上で、前記ハンドによる取り出しを行うための取り出し位置の教示を受け付ける受付ステップと、
前記教示された取り出し位置及びその近傍の3次元点群の情報を入力データとし、該入力データとした3次元点群の情報に対する教示に応じた評価値または取り出しの成否に応じた評価値の少なくともいずれか一方をラベルとした機械学習を行うことにより、入力データとして入力された3次元点群の情報についての評価値を出力する学習モデルを構築する学習ステップと、
前記距離画像から所定領域の距離画像を切り抜き、切り抜かれた前記距離画像の3次元点群の情報を前記学習モデルに入力データとして入力することにより出力される前記3次元点群の情報についての評価値に基づいて、新たな取り出し位置を選択する取り出し位置選択ステップと、
を備え、
前記ロボットは、前記教示された取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出し、前記取り出し位置選択ステップによって選択された前記新たな取り出し位置で各ワークを前記ハンドにより取り出すワーク取り出し方法。
(付記11)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
を備えたロボットシステムが行うワーク取り出し方法であって、
前記3次元計測機により生成された前記距離画像に基づいて前記複数のワークの少なくとも1つを前記ハンドにより取り出しを行うための取り出し位置の推定を行うことにより生成した評価値マップであって少なくとも1つの評価値からなる評価値マップを出力する推定ステップと、
前記推定ステップにて出力された前記評価値マップに基づいて前記ハンドが取り出す前記複数のワークの少なくとも1つの取り出し位置を選択する位置選択ステップと、
を備え、
前記ロボットが前記位置選択ステップにて選択した前記取り出し位置に基づいて前記ハンドにより前記複数のワークの少なくとも1つを取り出すワーク取り出し方法。
(付記12)
複数のワークの距離画像を生成する3次元計測機と、
前記複数のワークの少なくとも1つを取り出すためのハンドを有するロボットと、
を備えたロボットシステムが行うワーク取り出し方法であって、
前記3次元計測機により生成された前記距離画像を機械学習用の教師データとして教師データ格納部に格納する教師データ格納ステップと、
前記教師データ格納部に格納された前記距離画像を表示する表示ステップと、
前記表示ステップにて表示された前記距離画像に基づく少なくとも1つの教示位置の教示を受け付ける受付ステップと、
前記受付ステップにて受け付けた前記教示位置に基づき少なくとも1つの教示位置を示すラベルマップを生成し、該ラベルマップと前記教師データ格納部に格納された前記距離画像とを関連づけてデータセットとして前記教師データ格納部に保存するアノテーション処理ステップと、
前記教師データ格納部に格納された前記データセットを入力として、機械学習を行い、学習済モデルを出力する学習処理ステップと、
前記学習処理ステップにて出力された前記学習済モデルを学習済モデル格納部に格納する学習済モデル格納ステップと、
前記学習済モデル格納部に格納された前記学習済モデルと、前記3次元計測機により新たに生成された新たな複数のワークの距離画像に基づいて前記新たな複数のワークの少なくとも1つを前記ハンドにより取り出す際の取り出し位置の推定を行うことにより生成した評価値マップであって少なくとも1つの評価値からなる評価値マップを出力する推定ステップと、
前記推定ステップにて出力された前記評価値マップに基づいて前記ハンドが取り出す前記新たな複数のワークの少なくとも1つの取り出し位置を選択する位置選択ステップと、
を備え、
前記ロボットが前記位置選択ステップにより選択した前記取り出し位置に基づいて前記ハンドにより前記新たな複数のワークの少なくとも1つを取り出すワーク取り出し方法。
1a、1b ロボットシステム
10a、10b 画像処理装置
11 選択処理部
111 選択用データ格納部
112 アノテーション処理部
113 マッチング部
114 切り抜き部
12 表示部
13 操作受付部
14 学習部
141 学習処理部
142 学習済モデル格納部
143 推定処理部
15 選択処理部
151 教師データ格納部
152 アノテーション処理部
153 取り出し位置選択部
20 ロボット制御装置
30 ロボット
40 3次元計測機
50 ワーク
60 コンテナ

Claims (9)

  1. 複数の物体の少なくとも1つをハンドにより取り出すための前記複数の物体を含む画像における位置の教示を受け付ける受付部と、
    前記教示に基づいて、前記複数の物体の少なくとも1つを取り出すための学習モデルを学習する学習部であって、前記教示された位置及びその近傍の点群の情報を入力データとし、前記入力データとした点群の情報に対する教示に応じた評価値または取り出しの成否に応じた評価値の少なくともいずれか一方をラベルとした機械学習を行うことにより、入力データとして入力された点群の情報についての評価値を出力する前記学習モデルを学習する学習部と、を備える装置。
  2. 前記画像から所定領域の画像を切り抜き、切り抜かれた前記画像の点群の情報を前記学習モデルに入力データとして入力することにより出力される前記点群の情報についての評価値に基づいて、前記ハンドによる新たな取り出し位置を選択する取り出し位置選択部、
    をさらに備える、請求項に記載の装置。
  3. 複数の物体の少なくとも1つをハンドにより取り出すための前記複数の物体を含む画像における位置の教示を受け付ける受付部と、
    前記教示に基づいて、前記複数の物体の少なくとも1つを取り出すための学習モデルを学習する学習部と、
    前記教示された位置及びその近傍の点群の情報を探索用情報として記憶し、前記画像に対して、前記探索用情報による探索を行うことにより、前記ハンドによる新たな取り出し位置を選択する取り出し位置選択部と、を備える装置。
  4. 前記学習部は、少なくとも、前記教示に基づく評価値、又は、前記教示に基づく物体の取り出し成否のいずれか1つに基づいて、前記学習モデルを学習する、請求項に記載の装置。
  5. 前記画像を表示する表示部、
    をさらに備える請求項1から請求項4のいずれか1項に記載の装置。
  6. 前記表示部は、前記表示された画像上に前記教示された位置を描画する、請求項に記載の装置。
  7. 前記位置の教示は、前記位置を点及び領域のいずれかで指定したものである、
    請求項1から請求項6のいずれか1項に記載の装置。
  8. 前記学習モデルはニューラルネットワークである、請求項1から請求項7のいずれか1項に記載の装置。
  9. 請求項1から請求項8のいずれか1項に記載の装置と、
    前記複数の物体の画像を生成する計測機と、
    前記ハンドを有するロボットと、
    を備えるロボットシステム。
JP2017183593A 2017-09-25 2017-09-25 装置、及びロボットシステム Active JP6695843B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017183593A JP6695843B2 (ja) 2017-09-25 2017-09-25 装置、及びロボットシステム
US16/117,612 US11845194B2 (en) 2017-09-25 2018-08-30 Robot system and workpiece picking method
DE102018215826.6A DE102018215826B4 (de) 2017-09-25 2018-09-18 Robotersystem und Werkstückgreifverfahren
CN202310544742.XA CN116423478A (zh) 2017-09-25 2018-09-20 处理装置以及方法
CN201811101031.0A CN109551459B (zh) 2017-09-25 2018-09-20 机器人系统以及工件取出方法
JP2020075789A JP6895563B2 (ja) 2017-09-25 2020-04-22 ロボットシステム、モデル生成方法、及びモデル生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017183593A JP6695843B2 (ja) 2017-09-25 2017-09-25 装置、及びロボットシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020075789A Division JP6895563B2 (ja) 2017-09-25 2020-04-22 ロボットシステム、モデル生成方法、及びモデル生成プログラム

Publications (3)

Publication Number Publication Date
JP2019058960A JP2019058960A (ja) 2019-04-18
JP2019058960A5 JP2019058960A5 (ja) 2019-11-28
JP6695843B2 true JP6695843B2 (ja) 2020-05-20

Family

ID=65638782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017183593A Active JP6695843B2 (ja) 2017-09-25 2017-09-25 装置、及びロボットシステム

Country Status (4)

Country Link
US (1) US11845194B2 (ja)
JP (1) JP6695843B2 (ja)
CN (2) CN109551459B (ja)
DE (1) DE102018215826B4 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9238304B1 (en) * 2013-03-15 2016-01-19 Industrial Perception, Inc. Continuous updating of plan for robotic object manipulation based on received sensor data
JP6453922B2 (ja) * 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
DE102017207069A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
WO2019006091A2 (en) * 2017-06-28 2019-01-03 Google Llc METHODS AND APPARATUS FOR MACHINE LEARNING FOR SEMANTIC ROBOTIC SEIZURE
JP6680750B2 (ja) * 2017-11-22 2020-04-15 ファナック株式会社 制御装置及び機械学習装置
JP6669713B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 ロボットおよびロボットシステム
JP6857332B2 (ja) * 2018-03-13 2021-04-14 オムロン株式会社 演算装置、演算方法、及びそのプログラム
JP2020025992A (ja) * 2018-08-09 2020-02-20 株式会社東芝 制御装置、制御方法、およびプログラム
US10408939B1 (en) * 2019-01-31 2019-09-10 StradVision, Inc. Learning method and learning device for integrating image acquired by camera and point-cloud map acquired by radar or LiDAR corresponding to image at each of convolution stages in neural network and testing method and testing device using the same
JP7277187B2 (ja) 2019-03-13 2023-05-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
US11022961B2 (en) * 2019-04-04 2021-06-01 Plus One Robotics, Inc. Industrial robotics systems and methods for continuous and automated learning
CN110228068A (zh) * 2019-06-14 2019-09-13 广西科技大学 一种机器人平面作业点快速定位系统及其快速定位方法
JPWO2020261333A1 (ja) * 2019-06-24 2020-12-30
JP2021005158A (ja) * 2019-06-25 2021-01-14 三菱電機株式会社 境線検出装置及び水位計測装置
JP2021010970A (ja) * 2019-07-05 2021-02-04 京セラドキュメントソリューションズ株式会社 ロボットシステム及びロボット制御方法
US11491658B2 (en) 2019-07-23 2022-11-08 Toyota Research Institute, Inc. Methods and systems for automatically annotating items by robots
DE102019121889B3 (de) * 2019-08-14 2020-11-19 Robominds GmbH Automatisierungssystem und Verfahren zur Handhabung von Produkten
EP4019208A4 (en) * 2019-08-22 2022-12-07 OMRON Corporation CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM
WO2021039995A1 (ja) * 2019-08-28 2021-03-04 株式会社DailyColor ロボット制御装置
JP6784868B1 (ja) * 2019-09-02 2020-11-11 ヤマザキマザック株式会社 制御装置、工作機械、算出方法及びプログラム
JP7319891B2 (ja) 2019-10-31 2023-08-02 ミネベアミツミ株式会社 画像処理装置及び画像処理方法
JP2021070122A (ja) * 2019-10-31 2021-05-06 ミネベアミツミ株式会社 学習データ生成方法
EP4066001A4 (en) * 2019-11-30 2024-01-24 Boston Polarimetrics Inc SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES
WO2021166939A1 (ja) * 2020-02-19 2021-08-26 ファナック株式会社 学習用データセット生成装置および学習用データセット生成方法
CN111325795B (zh) * 2020-02-25 2023-07-25 深圳市商汤科技有限公司 一种图像处理方法、装置、存储介质及机器人
DE112021001435T5 (de) * 2020-03-05 2023-01-12 Fanuc Corporation Maschinen-Lern-Vorrichtung
DE102020115628A1 (de) 2020-06-12 2021-12-16 Schunk Gmbh & Co. Kg Spann- Und Greiftechnik Sensoreinrichtung für ein Greifsystem, Verfahren zur Erzeugung von optimalen Greifposen zur Ansteuerung einer Greifvorrichtung und zugehöriges Greifsystem
CN112001967A (zh) * 2020-08-14 2020-11-27 苏州华兴源创科技股份有限公司 相机指导机械手搬运物体的方法和装置
WO2022065303A1 (ja) 2020-09-25 2022-03-31 ファナック株式会社 推論計算処理装置、及び推論計算処理方法
WO2022123978A1 (ja) * 2020-12-08 2022-06-16 ソニーグループ株式会社 学習装置、学習システムおよび学習方法
TW202226071A (zh) * 2020-12-25 2022-07-01 日商發那科股份有限公司 機械學習裝置、及機械學習方法
US20220410381A1 (en) * 2021-06-29 2022-12-29 Intrinsic Innovation Llc Systems and methods for picking objects using 3-d geometry and segmentation
DE102021209646A1 (de) 2021-09-02 2023-03-02 Robert Bosch Gesellschaft mit beschränkter Haftung Robotervorrichtung, Verfahren zum computerimplementierten Trainieren eines Roboter-Steuerungsmodells und Verfahren zum Steuern einer Robotervorrichtung
CN114952809B (zh) * 2022-06-24 2023-08-01 中国科学院宁波材料技术与工程研究所 工件识别和位姿检测方法、系统及机械臂的抓取控制方法
EP4311632A1 (de) * 2022-07-27 2024-01-31 Siemens Aktiengesellschaft Verfahren zum greifen eines objekts, computerprogramm und elektronisch lesbarer datenträger
CN117067219B (zh) * 2023-10-13 2023-12-15 广州朗晴电动车有限公司 一种电车车身成型的钣金机械臂控制方法及系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10180668A (ja) * 1996-12-26 1998-07-07 Nkk Corp 廃棄物中の特定物を選別するロボットシステム
JP5767464B2 (ja) 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5623358B2 (ja) 2011-09-06 2014-11-12 三菱電機株式会社 ワーク取り出し装置
US9002098B1 (en) * 2012-01-25 2015-04-07 Hrl Laboratories, Llc Robotic visual perception system
JP5642738B2 (ja) 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5670397B2 (ja) 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5754454B2 (ja) 2013-03-18 2015-07-29 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015100874A (ja) * 2013-11-25 2015-06-04 セイコーエプソン株式会社 ロボットシステム
JP6361213B2 (ja) 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6572687B2 (ja) * 2015-09-02 2019-09-11 トヨタ自動車株式会社 把持可否判定方法
JP6117901B1 (ja) 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP6298035B2 (ja) * 2015-12-17 2018-03-20 ファナック株式会社 モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
JP2017124450A (ja) 2016-01-12 2017-07-20 株式会社ソフトサービス ピックアップ装置
WO2017201023A1 (en) * 2016-05-20 2017-11-23 Google Llc Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment
US10058995B1 (en) * 2016-07-08 2018-08-28 X Development Llc Operating multiple testing robots based on robot instructions and/or environmental parameters received in a request
JP6846950B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6546618B2 (ja) 2017-05-31 2019-07-17 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
US10773382B2 (en) * 2017-09-15 2020-09-15 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation

Also Published As

Publication number Publication date
CN109551459B (zh) 2023-05-30
CN109551459A (zh) 2019-04-02
US11845194B2 (en) 2023-12-19
JP2019058960A (ja) 2019-04-18
US20190091869A1 (en) 2019-03-28
DE102018215826A1 (de) 2019-03-28
CN116423478A (zh) 2023-07-14
DE102018215826B4 (de) 2023-07-13

Similar Documents

Publication Publication Date Title
JP6695843B2 (ja) 装置、及びロボットシステム
JP6608890B2 (ja) 機械学習装置、ロボットシステム及び機械学習方法
JP6895563B2 (ja) ロボットシステム、モデル生成方法、及びモデル生成プログラム
JP7071054B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6970553B2 (ja) 画像処理装置、画像処理方法
US20180342077A1 (en) Teacher data generation apparatus and method, and object detection system
US11227434B2 (en) Map constructing apparatus and map constructing method
CN110738101A (zh) 行为识别方法、装置及计算机可读存储介质
JP7014181B2 (ja) 学習装置および学習方法
JP6985856B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
US20200242398A1 (en) Information processing method and information processing system
US20200193607A1 (en) Object shape regression using wasserstein distance
US11314986B2 (en) Learning device, classification device, learning method, classification method, learning program, and classification program
US20210406615A1 (en) Learning device, classification device, learning method, classification method, learning program, and classification program
KR20150024719A (ko) 영상에서 객체를 분리하는 방법 및 장치.
JP2017215859A (ja) 文字列認識装置、方法、及びプログラム
CN114830177A (zh) 电子设备和用于控制该电子设备的方法
CN112446275A (zh) 物体数量推定装置、物体数量推定方法以及存储介质
JP2018206252A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
CN114627397A (zh) 行为识别模型构建方法以及行为识别方法
JP2018048890A (ja) 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
JP2020140659A (ja) 情報処理装置、情報処理方法及びプログラム
WO2023014369A1 (en) Synthetic dataset creation for object detection and classification with deep learning
US11557074B1 (en) Systems and methods for rigging a point cloud for animation
US20230368052A1 (en) Inference calculation processing device and inference calculation processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200422

R150 Certificate of patent or registration of utility model

Ref document number: 6695843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250