JP6902369B2 - 提示装置、提示方法およびプログラム、ならびに作業システム - Google Patents

提示装置、提示方法およびプログラム、ならびに作業システム Download PDF

Info

Publication number
JP6902369B2
JP6902369B2 JP2017050099A JP2017050099A JP6902369B2 JP 6902369 B2 JP6902369 B2 JP 6902369B2 JP 2017050099 A JP2017050099 A JP 2017050099A JP 2017050099 A JP2017050099 A JP 2017050099A JP 6902369 B2 JP6902369 B2 JP 6902369B2
Authority
JP
Japan
Prior art keywords
image
work
target article
manipulator
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017050099A
Other languages
English (en)
Other versions
JP2018153874A (ja
Inventor
佳一 山下
佳一 山下
聡 麻生
聡 麻生
健士 渡邊
健士 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Okamura Corp
Original Assignee
Okamura Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Okamura Corp filed Critical Okamura Corp
Priority to JP2017050099A priority Critical patent/JP6902369B2/ja
Publication of JP2018153874A publication Critical patent/JP2018153874A/ja
Application granted granted Critical
Publication of JP6902369B2 publication Critical patent/JP6902369B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、提示装置、提示方法およびプログラム、ならびに作業システム
に関する。
特許文献1には、操作者による擬人的な動きを検出し、これを複数の信号に変換してロボットデバイスを駆動させる技術が開示されている。
特開2015−168056号公報
ロボットデバイスなどのマニピュレータを手作業で動作させる場合、オペレータによるマニピュレータの認識を妨げることなく、操作の指示を適切に提示する必要がある。
本発明の目的は、上述した課題を解決する提示装置、提示方法およびプログラム、ならびに作業システムを提供することにある。
本発明の第1の態様によれば、提示装置は、マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示装置であって、作業対象となる対象物品の情報を含む作業指示の入力を受け付ける指示入力部と、前記カメラが撮像した撮像画像を取得する画像取得部と、前記操作者による前記マニピュレータの操作により得るべき報酬の量を取得する報酬取得部と、前記撮像画像に前記作業指示に関する情報および前記報酬の量に関する情報を合成することで、合成画像を生成する合成部と、前記合成画像を出力する画像出力部とを備える。
本発明の第2の態様によれば、第1の態様に係る提示装置は、前記作業指示に基づいて、前記撮像画像に写る前記対象物品を認識する認識部をさらに備え、前記合成部は、前記撮像画像に前記認識部による認識の結果に関する情報とを合成するものであってよい。
本発明の第3の態様によれば、第2の態様に係る提示装置は、前記合成部は、前記撮像画像のうち前記対象物品が写る位置にマーク画像を合成するものであってよい。
本発明の第4の態様によれば、第3の態様に係る提示装置は、前記認識部は、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出し、前記合成部は、前記撮像画像のうち、前記複数の候補のうち前記類似度が閾値以上のものが写る位置に、前記マーク画像を合成するものであってよい。
本発明の第5の態様によれば、第1から第4の何れかの態様に係る提示装置は、前記合成部は、前記撮像画像に前記対象物品の画像を合成するものであってよい。
本発明の第の態様によれば、提示装置は、マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示装置であって、作業対象となる対象物品の情報を含む作業指示の入力を受け付ける指示入力部と、前記カメラが撮像した撮像画像を取得する画像取得部と、前記作業指示に基づいて、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出する認識部と、前記撮像画像に前記作業指示に関する情報を合成し、前記撮像画像のうち前記認識部によって認識された前記複数の候補のうち前記類似度が閾値以上のものが写る位置にマーク画像を合成することで、合成画像を生成する合成部と、前記合成画像を出力する画像出力部と、オペレータの視線を検出する視線検出部と、検出された前記視線の先に前記マーク画像がある場合に、前記マーク画像に係る前記対象物品を把持するための操作信号を生成する信号生成部と、を備える。
本発明の第の態様によれば、作業システムは、マニピュレータとカメラとを備える作業ロボットと、第1から第の何れかの態様に係る提示装置とを備える。
本発明の第の態様によれば、提示方法は、マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示方法であって、作業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、前記カメラが撮像した撮像画像を取得することと、前記操作者による前記マニピュレータの操作により得るべき報酬の量を取得することと、前記撮像画像に前記作業指示に関する情報および前記報酬の量に関する情報を合成することで、合成画像を生成することと、前記合成画像を前記操作者に提示することとを有する。
本発明の第9の態様によれば、提示方法は、マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示方法であって、作業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、前記カメラが撮像した撮像画像を取得することと、前記作業指示に基づいて、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出することと、前記撮像画像に前記作業指示に関する情報を合成し、前記撮像画像のうち認識された前記複数の候補のうち前記類似度が閾値以上のものが写る位置にマーク画像を合成することで、合成画像を生成することと、前記合成画像を出力することと、オペレータの視線を検出することと、検出された前記視線の先に前記マーク画像がある場合に、前記マーク画像に係る前記対象物品を把持するための操作信号を生成することと、を有する。
本発明の第10の態様によれば、プログラムは、マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示するコンピュータに、作業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、前記カメラが撮像した撮像画像を取得することと、前記操作者による前記マニピュレータの操作により得るべき報酬の量を取得することと、前記撮像画像に前記作業指示に関する情報および前記報酬の量に関する情報を合成することで、合成画像を生成することと、前記合成画像を前記操作者に提示することとを実行させる。
本発明の第11の態様によれば、プログラムは、マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示するコンピュータに、作業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、前記カメラが撮像した撮像画像を取得することと、前記作業指示に基づいて、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出することと、前記撮像画像に前記作業指示に関する情報を合成し、前記撮像画像のうち認識された前記複数の候補のうち前記類似度が閾値以上のものが写る位置にマーク画像を合成することで、合成画像を生成することと、前記合成画像を出力することと、オペレータの視線を検出することと、検出された前記視線の先に前記マーク画像がある場合に、前記マーク画像に係る前記対象物品を把持するための操作信号を生成することとを実行させる。
上記態様のうち少なくとも1つの態様によれば、提示装置は、作業ロボットの撮像画像に、対象物品の情報を含む作業指示に関する情報を合成する。これにより、作業者は、マニピュレータの状態を目視しつつ、作業指示を容易に理解することができる。
第1の実施形態に係る作業システムの構成を示す概略図である。 第1の実施形態に係るコントローラの構成を示す概略ブロック図である。 第1の実施形態に係るマスタコントローラの動作を示す第1のフローチャートである。 第1の実施形態に係るマスタコントローラの動作を示す第2のフローチャートである。 第3の実施形態に係るマスタコントローラの構成を示す概略ブロック図である。 第2の実施形態に係るコントローラの構成を示す概略ブロック図である。 第2の実施形態に係るマスタコントローラの動作のうち、第1の実施形態との 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
《第1の実施形態》
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、第1の実施形態に係る作業システムの構成を示す概略図である。
作業システム1は、入出力グローブ10と、ヘッドマウントディスプレイ20と、マスタコントローラ30と、スレーブコントローラ40と作業ロボット50とを備える。入出力グローブ10とヘッドマウントディスプレイ20とはオペレータOに装着され、作業ロボット50はオペレータOと遠隔に設置される。マスタコントローラ30は、入出力グローブ10およびヘッドマウントディスプレイ20と電気的に接続される。スレーブコントローラ40は、作業ロボット50と電気的に接続される。マスタコントローラ30とスレーブコントローラ40とは、ネットワークNを介して通信可能に構成される。
第1の実施形態に係る作業システム1は、倉庫から物品を運搬するピッキングシステムに適用される。ピッキングシステムは、コンベアや運搬ロボットによって、物品を収容するビンを作業ロボット50が設置された作業スペースに運搬するシステムである。オペレータOは、作業ロボット50を遠隔から操作し、ビンに収容された対象物品を、出荷用コンベアや仕分け箱などの他の位置に移転させる。なお、他の実施形態においては、作業システム1は、ピッキングシステム以外のシステムに適用されてもよい。例えば、作業システム1は、たねまき、仕分け、開梱や梱包、検品、組立などの他の遠隔作業(倉庫内に限らずオフィス、スーパー、病院、図書館、実験室等における遠隔作業を含む)に用いられてもよい。
入出力グローブ10は、オペレータOの手に取り付けられる手袋状の入出力装置である。入出力グローブ10は、オペレータOの姿勢を検出する姿勢センサと、作業ロボット50の動作をフィードバックするフィードバックデバイスとを備える。入出力グローブ10は、姿勢センサが生成する信号を、操作信号としてマスタコントローラ30に出力する。姿勢センサは、少なくともオペレータOの関節の角度を算出可能に構成される。姿勢センサは、モーションキャプチャによりオペレータOの動きを検出するものであってよい。フィードバックデバイスは、作業ロボット50のマニピュレータ51が触れた物の触感を再現可能な素子(アクチュエータや電極など)である。フィードバックデバイスは、マスタコントローラ30から入力されるフィードバック信号に従って動作する。
ヘッドマウントディスプレイ20は、オペレータOの頭部に装着されることでオペレータOに画像を提示する装置である。画像の提示方法としては、オペレータの目に対向するディスプレイに画像を表示する方法や、プロジェクタによってオペレータの目に画像を投影する方法が挙げられる。ヘッドマウントディスプレイ20は、マスタコントローラ30から入力される映像信号に従って映像を提示する。ヘッドマウントディスプレイ20は、自身の姿勢を検出する姿勢センサ(例えば、加速度センサやジャイロスコープなど)を備える。ヘッドマウントディスプレイ20は、姿勢センサの検出結果を示す姿勢信号をマスタコントローラ30に出力する。
作業ロボット50は、マニピュレータ51とカメラ52とを備える。
マニピュレータ51は、複数のリンクが複数の関節を介して互いに接続されている。マニピュレータ51は、スレーブコントローラ40から入力される制御信号に従って関節ごとに設けられたアクチュエータを駆動させることによって各関節の角度を調整する。マニピュレータ51の関節とオペレータOの関節とは必ずしも一対一に対応しない。例えば、マニピュレータ51は、5本未満の指(指に相当するリンクと関節との組み合わせ)を備えるものであってよい。また例えばマニピュレータ51は、2つ以上の肘(肘に相当する関節)を備えるものであってよい。マニピュレータ51には、触覚センサと姿勢センサとが設けられている。触覚センサは、マニピュレータ51の表面(特に指に相当するリンクの先端)に設けられ、接触した物体の触感を検出する。姿勢センサは、マニピュレータ51の関節ごとに設けられており、各関節の角度および角速度を検出する。姿勢センサの例としては、アクチュエータの運動量を計測するセンサ(回転数センサやストロークセンサ)が挙げられる。
カメラ52は、関節を介してマニピュレータ51と接続される。カメラ52は、撮像した画像を表す映像情報をスレーブコントローラ40に出力する。カメラ52の姿勢は、スレーブコントローラ40から入力される制御信号に従って調整される。つまり、カメラ52とマニピュレータ51とに接続されたアクチュエータが制御信号に従って駆動することで、カメラ52の姿勢が調整される。
マスタコントローラ30は、入出力グローブ10から入力される操作信号に基づいて、作業ロボット50のマニピュレータ51の制御信号を生成する。またマスタコントローラ30は、作業ロボット50からマニピュレータ51が検出する触感を示す触感信号に基づいて、当該触覚を入出力グローブ10のフィードバックデバイスに再現させるためのフィードバック信号を生成する。また、マスタコントローラ30は、スレーブコントローラ40から映像信号を受信し、これに作業指示に関する情報を合成してヘッドマウントディスプレイ20に出力する。つまり、マスタコントローラ30は、提示装置の一例である。またマスタコントローラ30は、ヘッドマウントディスプレイ20から入力された姿勢信号に基づいて、作業ロボット50のカメラ52の制御信号を生成し、スレーブコントローラ40に送信する。
スレーブコントローラ40は、マスタコントローラ30から制御信号を受信し、これに従ってマニピュレータ51を駆動させる。またスレーブコントローラ40は、触覚センサ、姿勢センサ、カメラ52から信号を取得し、これをマスタコントローラ30に送信する。
図2は、第1の実施形態に係るマスタコントローラの構成を示す概略ブロック図である。
マスタコントローラ30は、信号受信部301、映像信号出力部302、触感信号変換部303、フィードバック信号出力部304、姿勢記憶部305、姿勢更新部306、指示入力部307、認識部308、報酬記憶部309、合成部310、操作信号入力部311、操作信号変換部312、制御信号送信部313、作業判定部314、報酬算出部315を備える。
信号受信部301は、スレーブコントローラ40を介して、作業ロボット50から映像信号、触感信号および姿勢信号を受信する。
映像信号出力部302は、受信した映像信号をヘッドマウントディスプレイ20に出力する。認識部308によって対象物品Iが認識された場合、映像信号出力部302は、合成部310によって合成された映像信号を出力する。
触感信号変換部303は、受信した触感信号をフィードバック信号に変換する。つまり、触感信号変換部303は、作業ロボット50のマニピュレータ51が触れた物体の触感を、フィードバックデバイスに再現させるためのフィードバック信号を生成する。触感信号からフィードバック信号への変換は、例えば触感信号を予め求められた関数に入力することで実現することができる。
フィードバック信号出力部304は、フィードバック信号を入出力グローブ10に出力する。
姿勢記憶部305は、作業ロボット50の姿勢を記憶する。作業ロボット50の姿勢には、各関節の位置、角度、角速度が含まれる。
姿勢更新部306は、受信した姿勢信号に基づいて姿勢記憶部305が記憶する情報を更新する。
指示入力部307は、ピッキングシステム等から作業指示の入力を受け付ける。作業指示には、作業対象となる対象物品Iの形状を特定可能な情報が含まれる。形状を特定可能な情報の例としては、立体形状を示す三次元形状データ、複数の視点から撮影された二次元画像データ、三次元形状データや二次元画像データから抽出された特徴量情報などが挙げられる。
認識部308は、作業指示に基づいて、映像信号に写った対象物品Iの位置および姿勢を認識する。認識部308は、例えばパターンマッチング法により対象物品Iを認識する。認識部308は、映像信号に対象物品Iの複数の候補を認識した場合、各候補について、作業指示に含まれる対象物品Iの形状を特定可能な情報に基づいて類似度を算出する。例えば、同一のビンに複数種類の物品(例えばサイズ違いの同一商品など)が入っており、それぞれが対象物品Iと類似している場合などに、複数の候補が認識され得る。類似度の例としては、画像の特徴量どうしの距離やコサイン類似度、画像の輝度値の差の平均値などが挙げられる。なお、類似度は、パターンマッチングの過程で用いられる評価値であってよい。
報酬記憶部309は、オペレータOによるマニピュレータ51の操作によって支払われるべき報酬の額を記憶する。
合成部310は、信号受信部301が受信した映像信号に、認識部308の認識結果を合成した合成映像信号を生成する。具体的には、合成部310は、映像信号のうち、認識部308によって対象物品Iと認識された座標にマーク画像を合成する。マーク画像の例としては、認識された対象物品Iを囲う円形の画像や、認識された対象物品Iの輪郭を色づけ(ハイライト)した画像などが挙げられる。また合成部310は、映像信号に、報酬記憶部309が記憶する報酬の量を合成する。
操作信号入力部311は、入出力グローブ10から操作信号の入力を受け付ける。また操作信号入力部311は、ヘッドマウントディスプレイ20から姿勢信号の入力を受け付ける。
操作信号変換部312は、操作信号および姿勢信号を制御信号に変換する。つまり、操作信号変換部312は、オペレータOと同じ動作を作業ロボット50に実行させるための制御信号を生成する。操作信号および姿勢信号から制御信号への変換は、例えば操作信号および姿勢信号を予め求められた関数に入力することで実現することができる。なお、入出力グローブ10の操作信号は、マニピュレータ51の制御信号に変換され、ヘッドマウントディスプレイ20の姿勢信号は、カメラ52の制御信号に変換される。
制御信号送信部313は、操作信号変換部312が変換したマニピュレータ51およびカメラ52の制御信号をスレーブコントローラ40に送信する。
作業判定部314は、信号受信部301が受信した映像信号に基づいて、作業ロボット50による作業が成功したか否かを判定する。例えば、作業判定部314は、対象物品Iが目標位置にあり、かつ対象物品Iがマニピュレータ51に把持されていない場合に、作業が成功したと判定する。他方、作業判定部314は、対象物品Iが目標位置になく、かつ対象物品Iがマニピュレータ51に把持されていない場合に、作業が失敗したと判定する。
報酬算出部315は、作業判定部314により作業が成功したと判定された場合に、所定の報酬額をオペレータOの総報酬額に加算する。作業ごとの報酬額は、対象物品Iごとの作業難易度や、オペレータOの作業習熟度などによって決定されてもよいし、1作業あたりの固定額であってもよい。報酬算出部315は、オペレータOによるマニピュレータ51の操作により得るべき報酬の量を取得する報酬取得部の一例である。
図3は、第1の実施形態に係るマスタコントローラの動作を示す第1のフローチャートである。
ピッキングシステムが対象物を作業スペースに運搬すると、ピッキングシステムは、マスタコントローラ30に作業指示を出力する。
マスタコントローラ30の指示入力部307は、ピッキングシステムから作業指示の入力を受け付ける(ステップS1)。次に、信号受信部301は、スレーブコントローラ40を介して作業ロボット50から、カメラ52が撮像した映像信号、触覚センサが検出した触感信号、および姿勢センサが検出した姿勢信号を受信する(ステップS2)。
次に、認識部308は、作業指示に含まれる対象物品Iの情報に基づいて、映像信号に写った対象物品Iの位置および姿勢を認識する(ステップS3)。このとき、認識部308は、対象物品Iについて複数の候補が認識されたか否かを判定する(ステップS4)。候補が1つだけ認識された場合(ステップS3:NO)、合成部310は、映像信号のうち当該候補の座標に所定のマーク画像を合成する(ステップS5)。
他方、複数の候補が認識された場合(ステップS3:YES)、認識部308は、各候補について、対象物品Iとの類似度を算出する(ステップS6)。そして合成部310は、映像信号のうち、類似度が所定の閾値以上となる候補それぞれの座標に所定のマーク画像を合成する(ステップS7)。
映像信号にマーク画像を合成すると、合成部310は、さらにステップS1で受信した作業指示の情報を映像信号に合成する(ステップS8)。具体的には、合成部310は、映像信号に写るビンの近傍に作業指示ウィンドウを生成し、当該ウィンドウ内に、対象物品Iの形状を特定可能な情報から生成された対象物品Iの画像と、対象物品Iの大きさ、色、およびその他の特徴を表す文言とを描画する。
さらに、合成部310は、報酬記憶部309から報酬額を読み出し、当該報酬額を映像信号に合成する(ステップS9)。
映像信号出力部302は、合成部310が生成した合成映像信号をヘッドマウントディスプレイ20に出力する(ステップS10)。ヘッドマウントディスプレイ20は、映像信号が入力されると当該映像信号に基づいて画像をオペレータOに提示する。これにより、オペレータOは、作業ロボット50のマニピュレータ51と対象物品Iとの位置関係を確認し、対象物品Iの詳細な情報を確認し、さらに現在の報酬額を確認することができる。
姿勢更新部306は、受信した姿勢信号に基づいて姿勢記憶部305が記憶する情報を更新する(ステップS11)。また触感信号変換部303は、受信した触感信号をフィードバック信号に変換する(ステップS12)そして、フィードバック信号出力部304は、フィードバック信号を入出力グローブ10に出力する(ステップS13)。これにより、オペレータOは、マニピュレータ51が触れるものの触感を得ることができる。
図4は、第1の実施形態に係るマスタコントローラの動作を示す第2のフローチャートである。
オペレータOによって入出力グローブ10が操作されると、操作信号入力部311は、入出力グローブ10から操作信号の入力を受け付け、またヘッドマウントディスプレイ20から姿勢信号の入力を受け付ける(ステップS14)。操作信号変換部312は、操作信号および姿勢信号をマニピュレータ51の制御信号に変換する(ステップS15)。そして、制御信号送信部313は、ステップS15で変換されたマニピュレータ51の制御信号を、スレーブコントローラ40に送信する(ステップS16)。これにより、スレーブコントローラ40は、オペレータOの操作に基づいて生成された制御信号に従ってマニピュレータ51を動作させる。また、これにより、スレーブコントローラ40は、オペレータOの視線の動きとカメラ52の視線の動きが一致するように、カメラ52の姿勢を制御する。
作業判定部314は、信号受信部301が受信した映像信号に基づいて、対象物品Iがマニピュレータ51に把持されているか否かを判定する(ステップS17)。対象物品Iがマニピュレータ51に把持されている場合(ステップS17:YES)、作業判定部314は、作業中であると判定し、ステップS2に処理を戻す。他方、対象物品Iがマニピュレータ51に把持されていない場合(ステップS17:NO)、作業判定部314は、信号受信部301が受信した映像信号に基づいて、対象物品Iが目標位置にあるか否かを判定する(ステップS18)。対象物品Iが目標位置にない場合(ステップS18:NO)、作業判定部314は、作業が失敗したと判定し(ステップS19)、ステップS2に処理を戻す。つまり、これによりオペレータOは、失敗した作業を再試行する。
他方、対象物品Iが目標位置にある場合(ステップS18:YES)、作業判定部314は、作業が成功したと判定する(ステップS20)。そして、報酬算出部315は、認識部308による認識結果に基づいて当該作業の報酬額を算出し、報酬記憶部309が記憶する総報酬額に算出した報酬額を加算する(ステップS21)。これにより、次の作業実行時に、ヘッドマウントディスプレイ20には加算された報酬額が表示される。
図5は、第1の実施形態に係るヘッドマウントディスプレイに表示される情報の一例である。
図5に示すように、ステップS3からステップS10の処理により、ヘッドマウントディスプレイ20には、カメラ52が撮像した撮像画像G1と、1または複数のマーク画像G2と、作業指示ウィンドウG3と、報酬額ウィンドウG4とを含む合成映像が表示される。
図5に示すように、マーク画像G2が表示されることで、オペレータOは容易に撮像画像G1のなかから作業対象となる対象物品Iを特定することができる。また、対象物品Iについて複数の候補が認識される場合であっても、マスタコントローラ30がその類似度に基づいてマーク画像G2が付される候補を絞り込むことにより、オペレータOは少ない選択肢の中から対象物品Iを特定することができる。また、このとき作業指示ウィンドウG3が表示されていることで、オペレータOは複数の候補の中から適切に対象物品Iを特定することができる。さらに、報酬額ウィンドウG4に報酬額が表示されることで、オペレータOの意欲を維持させることができる。
このように、第1の実施形態によれば、マスタコントローラ30は、カメラ52が撮像した撮像画像に作業指示に関する情報を合成した合成画像を、ヘッドマウントディスプレイ20に出力する。
これにより、オペレータOは、撮像画像によりマニピュレータ51の状態を目視しつつ、作業指示を容易に理解することができる。
《第2の実施形態》
第2の実施形態では、マスタコントローラ30がマニピュレータ51の操作の履歴に基づいてマニピュレータ51の操作を学習し、これに基づいてマニピュレータ51を自動制御する。このとき、オペレータOは、ヘッドマウントディスプレイ20に表示されるマーク画像G2に視線を合わせることで、マニピュレータ51に把持させる対象物品Iを特定する。第2の実施形態に係るヘッドマウントディスプレイ20には、視線を捉えるために装着面側に内部カメラを備える。
図6は、第2の実施形態に係るコントローラの構成を示す概略ブロック図である。
第2の実施形態に係るマスタコントローラ30は、第1の実施形態の構成に加え、作業モデル記憶部316、制御信号算出部317、学習部318、視線検出部319をさらに備える。
作業モデル記憶部316は、対象物品Iの種類、位置および姿勢、ならびにマニピュレータ51の姿勢からマニピュレータ51の操作信号を特定するための作業モデルを記憶する。作業モデルは、学習部318による機械学習によって更新される。作業モデルの例としては、ニューラルネットワークモデルやベイジアンネットワークなどが挙げられる。
制御信号算出部317は、作業モデル記憶部316が記憶する作業モデルに対象物品Iの種類、位置および姿勢、ならびにマニピュレータ51の姿勢を入力することで、制御信号を算出する。このとき、制御信号算出部317は、制御信号の妥当性を示すスコアを算出する。スコアの例としては、作業モデルの導出過程で算出される制御信号の尤度が挙げられる。本実施形態に係るスコアは値が大きいほど妥当性が高いことを示す。
学習部318は、認識部308による認識結果と、作業判定部314による判定結果と、作業開始から判定までに出力された制御信号とを用いて作業モデル記憶部316が記憶する作業モデルを更新する。
視線検出部319は、ヘッドマウントディスプレイ20の内部カメラが撮像した画像に基づいて、オペレータOの視線を検出する。視線の検出方法としては、例えば、内部カメラが撮像した画像から、テンプレートマッチング等により眼球の虹彩の位置を特定する方法が挙げられる。
ここで、第2の実施形態に係るマスタコントローラ30の動作について説明する。
図7は、第2の実施形態に係るマスタコントローラの動作のうち、第1の実施形態との相違部分の動作を示すフローチャートである。
第2の実施形態に係るマスタコントローラ30の指示入力部307は、ピッキングシステムから作業指示の入力を受け付けると、第1の実施形態に係るステップS1からステップS13と同様の処理を実行する。次に、マスタコントローラ30の視線検出部319は、オペレータOの視線を検出することで、映像信号におけるオペレータOの注視点を特定する(ステップS101)。視線検出部319は、注視点が所定時間以上マーク画像G2上にあるか否かを判定する(ステップS102)。ここで、注視点が所定時間以上マーク画像G2上にある場合(ステップS102:YES)、マスタコントローラ30は、オペレータOによる把持の対象が当該マーク画像G2が示す対象物品Iであると特定する。オペレータOによる把持の対象となる対象物品Iが特定されると、制御信号算出部317は、作業モデル記憶部316が記憶する作業モデルに、対象物品Iの種類、位置および姿勢、ならびにマニピュレータ51の姿勢を入力することで、マニピュレータ51の制御信号と、当該制御信号の妥当性を示すスコアとを算出する(ステップS103)。当該制御信号は、マニピュレータ51を単位時間の間動作させるための信号である。
制御信号送信部313は、制御信号算出部317が生成した制御信号のスコアが閾値以上であるか否かを判定する(ステップS104)。スコアが閾値以上である場合(ステップS104:YES)、制御信号送信部313は、制御信号算出部317が算出した制御信号を、スレーブコントローラ40に送信し(ステップS103)、以降、第1の実施形態のステップS17以降の処理を実行する。これにより、スレーブコントローラ40は、作業モデルに基づいて生成された制御信号に従ってマニピュレータ51を動作させる。
他方、スコアが閾値未満である場合(ステップS104:NO)、またはステップS102において注視点がマーク画像G2上にない場合、もしくは注視点がマーク画像G2上にあるが所定時間が経過していない場合(ステップS102:NO)、マスタコントローラ30は、第1の実施形態のステップS14以降の処理を実行する。なお、マスタコントローラ30の学習部318は、作業判定部314が作業の成否を判定したときに、その判定結果と認識部308による認識結果と、作業開始から判定までに出力された制御信号とを用いて作業モデル記憶部316が記憶する作業モデルを更新する。
このように、第2の実施形態によれば、マスタコントローラ30は、オペレータOの視線を検出し、視線の先にある対象物品Iについてマニピュレータ51を自動操作させる。これにより、オペレータOは、マニピュレータ51の把持対象を容易に決定することができる。なお、第2の実施形態では、視線が一定時間マーク画像G2上にある場合に、自動操作させるが、これに限られない。例えば、他の実施形態においては、視線がマーク画像G2上にある場合に、視線がマーク画像G2上に留まっている時間に関わらず自動操作させてもよい。
また第2の実施形態によれば、マスタコントローラ30は、操作の履歴に基づいてマニピュレータ51の操作信号とその妥当性を示すスコアを算出し、当該スコアに基づいて、入出力グローブ10の操作に従った操作信号を出力するか、算出した操作信号を出力するかを決定する。これにより、マスタコントローラ30は、操作の履歴から生成された操作信号によってオペレータOごとの操作のばらつきを抑制しつつ、学習が不十分な作業についてはオペレータOによる操作によりマニピュレータ51を動作させることで、作業の精度を保つことができる。なお、他の実施形態においては、これに限られず、例えばマスタコントローラ30は、スコアに関わらず、オペレータOの視線の先にある対象物を把持するための操作信号を出力してもよい。
《その他の実施形態》
以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。
例えば、上述の実施形態では、マスタコントローラ30がオペレータOの近傍に設けられるが、これに限られない。例えば、他の実施形態では、ネットワークN上のサーバ装置において、上述の制御がなされてもよいし、マスタコントローラ30とスレーブコントローラ40の位置関係が入れ替わってもよい。つまり、他の実施形態においては、オペレータOの近傍に設けられたスレーブコントローラ40が、信号の転送のみを行い、作業ロボット50の近傍に設けられたマスタコントローラ30が、上記処理を行ってもよい。
また、上述した実施形態によれば、マスタコントローラ30は、撮像画像のうち対象物品Iが写る位置にマーク画像を合成するが、これに限られない。例えば、他の実施形態に係るマスタコントローラ30は、対象物品Iの認識の結果に関する情報としてマーク画像でない情報を撮像画像に合成してもよい。具体的には、マスタコントローラ30は、作業指示ウィンドウに、撮像画像における認識結果と同じ姿勢の対象物品Iの画像を表示してもよい。
また、上述した実施形態によれば、マスタコントローラ30は、対象物品Iの複数の候補を認識した場合に、類似度が閾値以上のものが写る位置にマーク画像を合成するが、これに限られない。例えば、他の実施形態に係るマスタコントローラ30は、全ての候補の位置にマーク画像を合成してもよい。このとき、類似度が高い候補ほど各マーク画像の透明度を低くすることで、オペレータOによる対象物品Iの特定を補助してもよい。
また、上述した実施形態によれば、マスタコントローラ30は、撮像画像に対象物品Iの画像を合成するが、これに限られない。例えば、他の実施形態においては、マーク画像や文字情報のみのよって認識結果を提示してもよい。
また、上述した実施形態によれば、マスタコントローラ30は、オペレータOの報酬の量を算出し、これを撮像画像に合成するが、これに限られない。例えば、他の実施形態では、マスタコントローラ30とは別の装置が報酬の量を算出し、マスタコントローラ30はこれを当該別の装置から取得して、撮像画像に合成してもよい。また他の実施形態では、マスタコントローラ30は、報酬の量を撮像画像に合成しなくてもよい。
《コンピュータ構成》
図8は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ90は、CPU91、メインメモリ92、ストレージ93、インタフェース94を備える。
上述のマスタコントローラ30は、コンピュータ90に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ93に記憶されている。CPU91は、プログラムをストレージ93から読み出してメインメモリ92に展開し、当該プログラムに従って上記処理を実行する。また、CPU91は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ92に確保する。
ストレージ93の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ93は、コンピュータ90のバスに直接接続された内部メディアであってもよいし、インタフェース94または通信回線を介してコンピュータ90に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ90に配信される場合、配信を受けたコンピュータ90が当該プログラムをメインメモリ92に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ93は、一時的でない有形の記憶媒体である。
また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能をストレージ93に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1 作業システム
10 入出力グローブ
20 ヘッドマウントディスプレイ
30 マスタコントローラ
40 スレーブコントローラ
50 作業ロボット
301 信号受信部
302 映像信号出力部
303 触感信号変換部
304 フィードバック信号出力部
305 姿勢記憶部
306 姿勢更新部
307 指示入力部
308 認識部
309 報酬記憶部
310 合成部
311 操作信号入力部
312 操作信号変換部
313 制御信号送信部
314 作業判定部
315 報酬算出部

Claims (11)

  1. マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示装置であって、
    業対象となる対象物品の情報を含む作業指示の入力を受け付ける指示入力部と、
    前記カメラが撮像した撮像画像を取得する画像取得部と、
    前記操作者による前記マニピュレータの操作により得るべき報酬の量を取得する報酬取得部と、
    前記撮像画像に前記作業指示に関する情報および前記報酬の量に関する情報を合成することで、合成画像を生成する合成部と、
    前記合成画像を出力する画像出力部と
    を備える提示装置。
  2. 前記作業指示に基づいて、前記撮像画像に写る前記対象物品を認識する認識部をさらに備え、
    前記合成部は、前記撮像画像に前記認識部による認識の結果に関する情報とを合成する 請求項1に記載の提示装置。
  3. 前記合成部は、前記撮像画像のうち前記対象物品が写る位置にマーク画像を合成する
    請求項2に記載の提示装置。
  4. 前記認識部は、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出し、
    前記合成部は、前記撮像画像のうち、前記複数の候補のうち前記類似度が閾値以上のものが写る位置に、前記マーク画像を合成する
    請求項3に記載の提示装置。
  5. 前記合成部は、前記撮像画像に前記対象物品の画像を合成する
    請求項1から請求項4の何れか1項に記載の提示装置。
  6. マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示装置であって、
    作業対象となる対象物品の情報を含む作業指示の入力を受け付ける指示入力部と、
    前記カメラが撮像した撮像画像を取得する画像取得部と、
    前記作業指示に基づいて、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出する認識部と、
    前記撮像画像に前記作業指示に関する情報を合成し、前記撮像画像のうち前記認識部によって認識された前記複数の候補のうち前記類似度が閾値以上のものが写る位置にマーク画像を合成することで、合成画像を生成する合成部と、
    前記合成画像を出力する画像出力部と、
    オペレータの視線を検出する視線検出部と、
    検出された前記視線の先に前記マーク画像がある場合に、前記マーク画像に係る前記対象物品を把持するための操作信号を生成する信号生成部と、
    を備える提示装置。
  7. マニピュレータとカメラとを備える作業ロボットと、
    請求項1から請求項6の何れか1項に記載の提示装置と
    を備える作業システム。
  8. マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示方法であって、
    業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、
    前記カメラが撮像した撮像画像を取得することと、
    前記操作者による前記マニピュレータの操作により得るべき報酬の量を取得することと、
    前記撮像画像に前記作業指示に関する情報および前記報酬の量に関する情報を合成することで、合成画像を生成することと、
    前記合成画像を前記操作者に提示することと
    を有する提示方法。
  9. マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示する提示方法であって、
    作業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、
    前記カメラが撮像した撮像画像を取得することと、
    前記作業指示に基づいて、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出することと、
    前記撮像画像に前記作業指示に関する情報を合成し、前記撮像画像のうち認識された前記複数の候補のうち前記類似度が閾値以上のものが写る位置にマーク画像を合成することで、合成画像を生成することと、
    前記合成画像を出力することと、
    オペレータの視線を検出することと、
    検出された前記視線の先に前記マーク画像がある場合に、前記マーク画像に係る前記対象物品を把持するための操作信号を生成することと、
    を有する提示方法。
  10. マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示するコンピュータに、
    業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、
    前記カメラが撮像した撮像画像を取得することと、
    前記操作者による前記マニピュレータの操作により得るべき報酬の量を取得することと、
    前記撮像画像に前記作業指示に関する情報および前記報酬の量に関する情報を合成することで、合成画像を生成することと、
    前記合成画像を前記操作者に提示することと
    を実行させるためのプログラム。
  11. マニピュレータとカメラとを備える作業ロボットの操作者に、前記マニピュレータの操作の用に供する情報を提示するコンピュータに、
    作業対象となる対象物品の情報を含む作業指示の入力を受け付けることと、
    前記カメラが撮像した撮像画像を取得することと、
    前記作業指示に基づいて、前記撮像画像に写る前記対象物品の複数の候補を認識し、前記複数の候補のそれぞれについて前記対象物品との類似度を算出することと、
    前記撮像画像に前記作業指示に関する情報を合成し、前記撮像画像のうち認識された前記複数の候補のうち前記類似度が閾値以上のものが写る位置にマーク画像を合成することで、合成画像を生成することと、
    前記合成画像を出力することと、
    オペレータの視線を検出することと、
    検出された前記視線の先に前記マーク画像がある場合に、前記マーク画像に係る前記対象物品を把持するための操作信号を生成することと、
    を実行させるためのプログラム。
JP2017050099A 2017-03-15 2017-03-15 提示装置、提示方法およびプログラム、ならびに作業システム Active JP6902369B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050099A JP6902369B2 (ja) 2017-03-15 2017-03-15 提示装置、提示方法およびプログラム、ならびに作業システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050099A JP6902369B2 (ja) 2017-03-15 2017-03-15 提示装置、提示方法およびプログラム、ならびに作業システム

Publications (2)

Publication Number Publication Date
JP2018153874A JP2018153874A (ja) 2018-10-04
JP6902369B2 true JP6902369B2 (ja) 2021-07-14

Family

ID=63717090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050099A Active JP6902369B2 (ja) 2017-03-15 2017-03-15 提示装置、提示方法およびプログラム、ならびに作業システム

Country Status (1)

Country Link
JP (1) JP6902369B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7333204B2 (ja) * 2018-08-10 2023-08-24 川崎重工業株式会社 情報処理装置、ロボット操作システム、及びロボット操作方法
JP7000364B2 (ja) * 2019-01-29 2022-01-19 ファナック株式会社 ロボットシステム
WO2022209924A1 (ja) * 2021-03-31 2022-10-06 本田技研工業株式会社 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP2022156622A (ja) * 2021-03-31 2022-10-14 ソニーグループ株式会社 手術システム並びに手術支援方法
WO2024013895A1 (ja) * 2022-07-13 2024-01-18 日本電信電話株式会社 遠隔制御システム、遠隔制御方法、および遠隔制御プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62289701A (ja) * 1986-06-10 1987-12-16 Nissan Motor Co Ltd 散積み物体の位置関係を3次元的に認識する視覚システム
JPS63139689A (ja) * 1986-11-28 1988-06-11 株式会社日立製作所 遠隔マニピユレ−シヨン・システムの画像表示装置
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
JP3024700B1 (ja) * 1998-12-17 2000-03-21 川崎重工業株式会社 Hmd付き溶接部モニタリング装置
JP2001100821A (ja) * 1999-09-30 2001-04-13 Japan Science & Technology Corp マニピュレータ制御方法および装置
JP3924495B2 (ja) * 2002-04-24 2007-06-06 株式会社日立製作所 遠隔操作制御装置
JP4565617B2 (ja) * 2004-06-10 2010-10-20 キヤノン株式会社 画像記録装置及びその制御方法
US9770828B2 (en) * 2011-09-28 2017-09-26 The Johns Hopkins University Teleoperative-cooperative robotic system
JP5003840B1 (ja) * 2011-10-31 2012-08-15 オムロン株式会社 画像処理装置および画像処理プログラム
JP5899951B2 (ja) * 2012-01-18 2016-04-06 セイコーエプソン株式会社 ロボット装置および位置姿勢検出方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Also Published As

Publication number Publication date
JP2018153874A (ja) 2018-10-04

Similar Documents

Publication Publication Date Title
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
US11780083B2 (en) Determining and utilizing corrections to robot actions
JP6540472B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6869060B2 (ja) マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム
KR102472592B1 (ko) 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트
US11103322B2 (en) Remote control robot system
JP6458713B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
US11541545B2 (en) Information processing apparatus, information processing method, and system
CN114080583B (zh) 视觉教导和重复移动操纵系统
WO2011065035A1 (ja) ロボットの教示データを作成する方法およびロボット教示システム
EP2923806A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP7376268B2 (ja) 三次元データ生成装置及びロボット制御システム
US20150258684A1 (en) Robot, robot system, and control device
JP2020015128A (ja) センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
Petersson et al. Systems integration for real-world manipulation tasks
CN110871441A (zh) 感测系统、作业系统、增强现实图像的显示方法、以及存储有程序的存储介质
Zubrycki et al. Using integrated vision systems: three gears and leap motion, to control a 3-finger dexterous gripper
JP6931585B2 (ja) 作業システム、作業システムの制御方法及びプログラム
JP6456557B1 (ja) 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム
WO2020166509A1 (ja) 制御装置及びプログラム
JP2022038069A (ja) ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法
US20230234231A1 (en) Teleoperation assist device, teleoperation assist method, and storage medium
US20240075623A1 (en) Remote control system, remote control method, and control program
US20240075628A1 (en) Remote control system, remote control method, and control program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210326

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R150 Certificate of patent or registration of utility model

Ref document number: 6902369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150