JP2019199335A - 情報処理装置、情報処理プログラム、及び仕分システム - Google Patents

情報処理装置、情報処理プログラム、及び仕分システム Download PDF

Info

Publication number
JP2019199335A
JP2019199335A JP2018095302A JP2018095302A JP2019199335A JP 2019199335 A JP2019199335 A JP 2019199335A JP 2018095302 A JP2018095302 A JP 2018095302A JP 2018095302 A JP2018095302 A JP 2018095302A JP 2019199335 A JP2019199335 A JP 2019199335A
Authority
JP
Japan
Prior art keywords
article
loading
car
information processing
loaded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018095302A
Other languages
English (en)
Inventor
昌孝 佐藤
Masataka Sato
昌孝 佐藤
田中 利之
Toshiyuki Tanaka
利之 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018095302A priority Critical patent/JP2019199335A/ja
Publication of JP2019199335A publication Critical patent/JP2019199335A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • De-Stacking Of Articles (AREA)
  • Specific Conveyance Elements (AREA)

Abstract

【課題】 効率的に荷降ろしが可能な情報処理装置、情報処理プログラム、及び仕分システムを提供する。【解決手段】 実施形態に係る情報処理装置は、制御部を具備する。制御部は、前記所定範囲から距離センサが取得したデータに基づいて、前記かご車に積載された前記物品の外観を示す荷姿データを生成し、前記かご車に複数の前記物品が積載された際の前記物品毎の位置及び形状を示す積載情報に基づいて、前記物品の前記かご車への積載時の状態を示す積載パターンを生成し、前記積載パターンと前記荷姿データとに基づき、他の物品との相対的な位置が積載時から変わった物品を特定し、前記積載パターンに基づき、他の物品との相対的な位置が積載時から変わっていない物品に対する前記動作計画を生成し、前記荷姿データに基づき、他の物品との相対的な位置が積載時から変わった物品に対する前記動作計画を生成する。【選択図】図4

Description

本発明の実施形態は、情報処理装置、情報処理プログラム、及び仕分システムに関する。
小包などの物品(荷物)を配送する仕分システムでは、収集した荷物を配送先ごとに仕分ける作業が必要となる。仕分システムは、物品を把持する把持機構と、把持機構を移動させるアーム機構とを有するロボットアームと、ロボットアームの動作を制御するロボットアーム制御装置と、ロボットアーム制御装置に動作を指示する情報処理装置とを備える。例えば、仕分システムは、かご車に物品を積載する際に用いられる。また、例えば、仕分システムは、かご車から物品を降ろす荷降ろしにも用いられる。
荷降ろし用の仕分システムの情報処理装置は、かご車に積載された物品を、ロボットアームに把持させる為に、ロボットアームにより物品を把持させる位置であるピッキング位置を決定し、ピッキング位置をロボットアーム制御装置に供給する。
また、情報処理装置は、ピッキング位置を決定する為に、積載された物品の位置及び外形寸法(形状)を認識する。例えば、情報処理装置は、かご車に物品が積載された際に生成された情報(積載情報)に基づいて、積載された各物品の位置及び形状を認識し、ピッキング位置を決定する。
積載情報は、例えば、積載された各物品の位置及び形状を示す情報である。積載情報は、積載側の仕分システムによって、かご車に物品が積載される際に、かご車毎に生成される。例えば、積載情報は、かご車に積載される物品の形状と、この物品が積載された位置とに基づいて生成される。
しかしながら、かご車の輸送中に、かご車に積載された物品が移動することが想定される。このような場合、ピッキング位置を決定する為に用いる情報が、積載情報だけでは不十分であるという課題がある。
特開2017−19587号公報
本発明が解決しようとする課題は、効率的に荷降ろしが可能な情報処理装置、情報処理プログラム、及び仕分システムを提供することである。
実施形態に係る情報処理装置は、所定範囲に置かれたかご車に積載された物品を把持する把持機構と、動作計画に基づいて前記把持機構を移動させるアーム機構とを有するロボットアームに、前記動作計画を供給する情報処理装置であって、前記動作計画を生成し、前記動作計画を前記ロボットアームに供給する制御部を具備する。制御部は、前記所定範囲から距離センサが取得したデータに基づいて、前記かご車に積載された前記物品の外観を示す荷姿データを生成し、前記かご車に複数の前記物品が積載された際の前記物品毎の位置及び形状を示す積載情報に基づいて、前記物品の前記かご車への積載時の状態を示す積載パターンを生成し、前記積載パターンと前記荷姿データとに基づき、他の物品との相対的な位置が積載時から変わった物品を特定し、前記積載パターンに基づき、他の物品との相対的な位置が積載時から変わっていない物品に対する前記動作計画を生成し、前記荷姿データに基づき、他の物品との相対的な位置が積載時から変わった物品に対する前記動作計画を生成する。
図1は、一実施形態に係る仕分システムの概略的な構成例について説明する為の説明図である。 図2は、一実施形態に係る情報処理装置の構成例について説明する為の説明図である。 図3は、一実施形態に係るロボットアームの動作の例について説明する為のフローチャートである。 図4は、一実施形態に係る情報処理装置の動作の例について説明する為のフローチャートである。 図5は、一実施形態に係る情報処理装置の動作の例について説明する為のフローチャートである。 図6は、積載パターン及び荷姿データに基づく処理について説明する為の説明図である。 図7は、積載パターン及び荷姿データに基づく処理について説明する為の説明図である。 図8は、積載パターン及び荷姿データに基づく処理について説明する為の説明図である。
以下、実施形態について、図面を参照して説明する。
図1は、一実施形態に係る仕分システム1の概略的な構成例について説明する為の説明図である。
仕分システム1は、かご車2に積載された仕分対象である物品3を所定の仕分先に仕分けるシステムである。
かご車2は、物品3を収容する収容部とキャスターとが組み合わされた容器である。なお、かご車2は、仕分対象の物品3が積載される容器の一例であり、荷台、またはパレットなど、物品3を積載することができるものであれば如何なるものであってもよい。かご車2には、かご車2を特定する為の識別情報が記憶された無線タグ4が設けられている。無線タグ4は、例えば、RFIDリーダと無線通信を行うRFIDタグである。
物品3の仕分先は、例えばベルトコンベア5である。なお、仕分先は、ベルトコンベア5に限定されるものではなく、仕分用のカゴであっても良いし、作業台などであっても良い。
仕分システム1は、距離センサ11、タグリーダ12、サーバ13、操作端末14、ロボットアーム15、及び情報処理装置16を備える。ロボットアーム15、距離センサ11、タグリーダ12、サーバ13、操作端末14、ロボットアーム15、及び情報処理装置16は、ネットワーク17を介して互いに通信可能に構成されている。
まず、距離センサ11の構成について説明する。
距離センサ11は、対象物までの距離を計測するセンサである。距離センサ11は、対象物と距離センサ11との距離を示す距離画像を取得する。距離画像は、例えば、対象物と距離センサ11との距離を示す点が配列された点群を有するデータである。具体的には、距離画像は、互いに直交する三次元空間における点の集合である。言い換えると、距離画像は、二次元状に配列された複数の点毎の、距離センサ11との距離を示す距離値の集合(点群データ)である。距離センサ11は、距離画像を、ネットワーク17を介して情報処理装置16に供給する。
距離センサ11は、例えば異なる2点(瞳位置)から対象物を撮像した際の視差に基づいて対象物までの距離を計測するステレオカメラである。即ち、距離センサ11は、レンズと、レンズにより結像された光を画像に変換する撮像素子とが組み合わされたカメラを2つ以上備える。このような構成により、距離センサ11は、上記の距離画像と同時に、色情報を有する座標(画素)が二次元的に配列されたラスタ画像(画像データ)を取得する。なお、ラスタ画像は、カラー画像であっても単色画像であってもよい。距離センサ11は、ラスタ画像を、ネットワーク17を介して情報処理装置16に供給する。
距離センサ11のレンズは、ロボットアーム15により持ち上げられる物品3が積載されたかご車2を含む領域を撮影することができるように画角が調整されている。例えば、距離センサ11のレンズは、光軸がかご車2の底面に対向するように調整される。例えば、距離センサ11のレンズは、距離センサ11のレンズの光軸と、鉛直方向とが平行になるように調整される。即ち、距離センサ11は、かご車2の底面に対向する方向から、かご車2を含む所定範囲を撮像し、距離画像、及びラスタ画像を取得する。なお、かご車2を含む所定範囲の画像をかご車画像と称する。本実施形態では、かご車画像は距離画像であると仮定して説明する。即ち、かご車画像と点群データとは同義である。
なお、距離センサ11は、対象物からの光を分光し、撮像素子の異なる位置に入射させる構成であってもよい。また、距離センサ11は、レーザによる1次元スキャナであってもよい。
次に、タグリーダ12について説明する。
タグリーダ12は、距離センサ11の撮像範囲のかご車2に取り付けられた無線タグ4と通信を行う装置である。タグリーダ12は、例えばRadio Frequency IDentification(RFID)の通信方式を用いて無線タグ4と通信するRFIDリーダである。タグリーダ12は、例えばISO 18000‐63規格で定められた通信方式を用いて無線タグ4と通信する。また、タグリーダ12は、IEEE(アイトリプルイー)802.15.4g規格で定められた通信方式など、他の通信方式を用いて無線タグ4と通信する構成であってもよい。
タグリーダ12は、電磁波を出力することによって、無線タグ4と通信を行う。タグリーダ12は、アンテナ及び信号処理回路を備える。アンテナは、電磁波を送受信するアンテナである。信号処理回路は、アンテナから出力する電磁波を変調することにより、他の機器にデータを送信する。また、信号処理回路は、アンテナが受信した電磁波に基づいて、他の機器が送信したデータを復調する。
タグリーダ12は、かご車2の識別情報を読み取る為のコマンドを無線タグ4に送信する。無線タグ4は、このコマンドを受信した場合、識別情報を含むレスポンスをタグリーダ12に送信する。タグリーダ12は、レスポンスを受信し、かご車2の識別情報を取得する。タグリーダ12は、取得した識別情報を情報処理装置16に供給する。
次に、サーバ13について説明する。
サーバ13は、プロセッサ、メモリ、ストレージ、及び通信インタフェースなどを備える装置である。サーバ13のストレージには、複数の積載情報が記憶されたデータベースが記憶されている。積載情報は、かご車2に積載された複数の物品3の位置及び形状を示す情報である。積載情報は、積載側の仕分システムによって、かご車2に物品3が積載される際に、かご車2毎に生成され、データベースに登録される。
次に、操作端末14について説明する。
操作端末14は、操作に基づく情報を情報処理装置16に供給する装置である。即ち、操作端末14は、情報処理装置16の操作インタフェースとして機能する。操作端末14以外の他の機器と通信する為の通信インタフェース、種々の処理を実行する制御部、及び画面の表示と操作に基づく操作信号の生成とを行うタッチパネルなどを備える。また、操作端末14は、タッチパネルの代わりにディスプレイと、キーボードまたはマウスなどの操作部とを備える構成であってもよい。
次に、ロボットアーム15の構成について説明する。
ロボットアーム15は、かご車2に積載された物品3を把持し、把持した物品3を仕分先に移動させる装置である。ロボットアーム15は、把持機構21、アーム機構22、状態検出センサ23、及びコントローラ24を備える。
把持機構21は、物品3を把持する機構である把持機構21は、アーム機構22の端部(最終リンク)にネジなどにより固定される。即ち、把持機構21は、アーム機構22の動作によって任意の姿勢で移動される。
把持機構21は、例えば、物品3に吸着する吸着パッドを備える。吸着パッドは、吸着パッドが物品3の表面に接した状態で、コントローラ24の制御によりパッド内が負圧になった場合、物品3の表面に吸着(真空吸着)する。この結果、把持機構21は、物品3を把持することができる。
また、把持機構21は、例えば、2点以上の接点で物品3を挟むことにより、物品3を把持する複数の指部を備えるグリッパとして構成されていてもよい。グリッパは、複数の指と、複数の指を連結させる関節機構とを備える。グリッパは、コントローラ24の制御により関節機構が動作し、関節機構の動作に連動して指が動作するように構成されている。グリッパは、複数の指により、対向する複数の方向から物品3に対して力を加える。この結果、把持機構21は、指と物品3との間に生じる摩擦によって、物品3を把持することができる。
アーム機構22は、把持機構21を移動させる機構である。アーム機構22は、複数のアームと、複数の関節機構(軸)とを備える。関節機構は、2つのアームを連結させる。また、関節機構は、コントローラ24の制御により可動し、連結している2つのアームの相対的な角度を変化させる。即ち、関節機構の動作によって、アームが移動する。
状態検出センサ23は、把持機構21における種々の状態を検出するセンサである。状態検出センサ23は、測定結果をコントローラ24に供給する。状態検出センサ23は、測定結果を示すアナログ信号を、アナログディジタル変換し、コントローラ24に供給する。
状態検出センサ23は、例えば、把持機構21及び把持機構21により把持された物品3に対して働く応力を検出する。状態検出センサ23は、例えば、把持機構21及び把持機構21により把持された物品3に対して働く重力、慣性力、外力、及びモーメントを測定する。このような応力の測定結果に基づき、把持機構21が物品3に接しているか否かを判断することが可能になる。
また、状態検出センサ23は、例えば、把持機構21の吸着パッド内の空気圧を検出する。例えば、物品3の表面の透気性が高い、表面が粗い、表面の曲率が大きい、または表面に凹凸があるなどの場合、吸着パッドと物品3の表面との間の漏れ流量によって、圧力の測定値が増加する。これは、真空吸着による把持力が低下していることを意味する。また、例えば、吸着パッドと物品3の表面とが密着し、漏れ流量がほとんどない場合、圧力の測定値が低下する。これは、真空吸着による把持力が増加していることを意味する。このように、空気圧の測定結果に基づき、真空吸着による把持力の増減を判断することが可能になる。
コントローラ24は、情報処理装置16から供給される動作計画に基づいて、把持機構21及びアーム機構22の動作を制御する。コントローラ24は、例えば、メモリ(図示せず)と、メモリに記憶されたプログラムを実行することにより、把持機構21及びアーム機構22の動作を制御する演算素子(図示せず)とを備える。また、コントローラ24は、シーケンサとして構成されていてもよい。
動作計画は、ピッキング位置を示すピッキング位置データと、軌跡とを含む情報である。
ピッキング位置データは、把持機構21により物品3を把持させる位置を示す情報である。例えば、ピッキング位置データは、把持機構21により物品3を把持させる場合に把持機構21の基準点を移動させる位置を示す。より具体的には、ピッキング位置データは、把持機構21の基準点の移動先を示す3次元空間上の座標である。なお、以下ピッキング位置データが示すピッキング位置を、単にピッキング位置と称する。
軌跡は、把持機構21をピッキング位置まで移動させる際の経路を示す。より具体的には、軌跡は、把持機構21の基準点の移動経路を示す3次元空間上の複数の座標である。なお、ピッキング位置は、軌跡に含まれていてもよい。
把持機構21が吸着パッドとして構成されている場合、把持機構21の基準点は、例えば、吸着パッドの中心である。なお、把持機構21の基準点は、吸着パッドが設けられた面の任意の点であってもよい。また、把持機構21がグリッパとして構成されている場合、把持機構21の基準点は、例えば、グリッパを構成する複数の指機構の中心であってもよい。
コントローラ24は、動作計画が示す軌跡を通り、動作計画のピッキング位置データが示すピッキング位置まで把持機構21を移動するようにアーム機構22を制御する。コントローラ24は、動作計画が示すピッキング位置に把持機構21が移動すると、物品3を把持するように把持機構21を制御する。コントローラ24は、把持機構21により物品3を把持させると、把持機構21を仕分先に応じた位置まで移動させ、把持機構21による物品3の把持を解除する。これにより、仕分先に物品3が供給される。
コントローラ24は、アーム機構22の動作を制御する構成として、アーム機構22の関節機構を動作させるモータ及びエンコーダなどを備える。
モータは、電力を駆動力に変換する駆動機構である。モータは、電力に応じて、駆動軸を回転させる。駆動軸は、図示されないギヤ及びベルトなどの機構を介して、アーム機構22の関節機構に接続されている。即ち、モータの駆動軸の回転に応じて、アーム機構22の関節機構が回転動作する。モータは、例えば、サーボモータである。また、モータは、ステッピングモータ、または超音波モータなどであってもよい。また、コントローラ24は、モータではなく、空気圧または油圧などにより関節機構を駆動させる構成であってもよい。
エンコーダは、モータの駆動軸の回転量及び回転速度を検出する。コントローラ24は、エンコーダで検出された回転量及び回転速度に基づいて、モータの駆動軸と連動する板の回転量及び回転速度を検出する。これにより、コントローラ24は、アーム機構22の最終リンクの位置、即ち把持機構21の位置を認識する。
即ち、コントローラ24は、把持機構21の位置を認識しつつ、モータを動作させることにより、任意の位置に把持機構21を移動させる。
また、コントローラ24は、把持機構21の動作を制御する構成として、真空発生器を備える。真空発生器は、吸着パッド内の空気を排出し、空気圧を低下させるポンプである。例えば、真空発生器は、吸着パッドが物品3の表面に密着した状態で、吸着パッド内の空気を排出させることにより、吸着パッドを物品の表面に真空吸着させる。
次に、情報処理装置16の構成について説明する。
図2は、情報処理装置16の構成例について説明する為の説明図である。
情報処理装置16は、ロボットアーム15に動作計画を供給する装置である。情報処理装置16は、パーソナルコンピュータ(PC)などの、データの処理及びデータの保存を行うことができる装置により構成される。情報処理装置16は、通信インタフェース31及び制御部32を備える。
通信インタフェース31は、情報処理装置16以外の他の機器と通信する為のインタフェースである。通信インタフェース31は、ネットワーク17を介して距離センサ11、タグリーダ12、サーバ13、操作端末14、及びロボットアーム15と通信する為の通信規格などに対応した端子及び回路を備える。通信インタフェース31は、制御部32の制御に基づいて、距離センサ11、タグリーダ12、サーバ13、操作端末14、及びロボットアーム15などと通信する。
制御部32は、種々の処理を実行する処理部である。制御部32は、プロセッサ33及びメモリ34を備える。
プロセッサ33は、演算処理を実行する演算素子である。プロセッサ33は、例えばCPUとして構成される。プロセッサ33は、メモリ34に記憶されているプログラムに基づいて種々の処理を行う。
メモリ34は、プログラム及びデータを記憶する記憶装置である。メモリ34は、例えば、読み出し専用の不揮発性メモリであるROM、データを一時的に記憶するRAM、及びデータを記憶するストレージのいずれか、または複数を備える。
情報処理装置16の制御部32は、距離センサ11からかご車画像を取得する。また、制御部32は、タグリーダ12から、かご車2の識別情報を取得する。制御部32は、取得した識別情報に対応する積載情報をサーバ13から取得する。制御部32は、かご車画像と積載情報とに基づき、ピッキング位置を決定する。さらに、制御部32は、ピッキング位置までのロボットアーム15の把持機構21の移動経路である軌跡を決定する。制御部32は、ピッキング位置及び軌跡に基づき、動作計画を生成し、ロボットアーム15に供給する。
次に、ロボットアーム15の動作について説明する。
図3は、ロボットアーム15の動作について説明する為のフローチャートである。
ロボットアーム15のコントローラ24は、アーム機構22及び把持機構21を距離センサ11の画角外の初期位置に移動させる(ステップS11)。距離センサ11は、アーム機構22及び把持機構21を撮影範囲外に移動したタイミングでかご車画像(点群データ)を取得し、情報処理装置16に供給する。また、タグリーダ12は、距離センサ11の撮像範囲に配置されたかご車2の無線タグ4から、かご車2の識別情報を取得し、情報処理装置16に供給する。
コントローラ24は、アーム機構22及び把持機構21を撮影範囲外に移動させると、情報処理装置16から動作計画が供給されるのを待つ(ステップS12)。
コントローラ24は、情報処理装置16から動作計画が供給された場合(ステップS12、YES)、動作計画に基づき把持機構21を移動させる(ステップS13)。上記の様に、コントローラ24は、動作計画が示す軌跡に基づき、動作計画が示すピックアップ位置まで把持機構21を移動させるように、アーム機構22を制御する。
コントローラ24は、把持機構21がピックアップ位置に到達したか否か判断する(ステップS14)。例えば、コントローラ24は、アーム機構22を動作させるモータに対応するエンコーダの検出結果に基づいて、アーム機構22の最終リンクに取り付けられた把持機構21の位置を認識し、把持機構21がピックアップ位置に到達したか否か判断する。また、コントローラ24は、状態検出センサ23の検出結果に基づいて、把持機構21がピックアップ位置に到達したか否か判断してもよい。この場合、コントローラ24は、状態検出センサ23から、把持機構21が物品3の表面に接したことが推定される検出結果が得られた場合、把持機構21がピックアップ位置に到達したと判断する。コントローラ24は、例えば、所定時間以内に把持機構21がピックアップ位置に到達したか否か判断する。
コントローラ24は、把持機構21がピックアップ位置に到達したと判断した場合(ステップS14、YES)、把持機構21により物品3を把持させる(ステップS15)。例えば把持機構21が吸着パッドとして構成されている場合、コントローラ24は、吸着パッドが物品3の表面に密着した状態で、吸着パッド内を負圧にさせることにより、把持機構21に物品3を真空吸着させる。また例えば、把持機構21がグリッパとして構成されている場合、コントローラ24は、グリッパの指により物品3を挟ませることにより、把持機構21に物品3を把持させる。
コントローラ24は、把持機構21による物品3の把持が成功したか否か判断する(ステップS16)。例えば、コントローラ24は、状態検出センサ23による吸着パッド内の空気圧の検出結果に基づいて、物品3の把持が成功したか否か判断する。即ち、コントローラ24は、空気圧の検出結果が負圧(大気圧未満の圧力)である場合、物品3の把持が成功したと判断する。また、例えば、コントローラ24は、状態検出センサ23による把持機構21への応力の検出結果に基づいて、物品3の把持が成功したか否か判断してもよい。即ち、コントローラ24は、物品3の重さにより生じる応力が状態検出センサ23により検出されている場合、物品3の把持が成功したと判断する。
コントローラ24は、把持機構21による物品3の把持が成功したと判断した場合(ステップS16、YES)、物品3を把持した把持機構21を仕分先に応じたベルトコンベア5に対応した位置まで移動させるように、アーム機構22を制御する(ステップS17)。
コントローラ24は、把持機構21を仕分先に応じたベルトコンベア5に対応した位置まで移動させると、把持機構21による物品3の把持を解除するように把持機構21を制御し(ステップS18)、1つの物品の仕分が完了したことを示す完了通知を情報処理装置16に送信し、ステップS11の処理に移行する。これにより、把持機構21から離れた物品3が、仕分先のベルトコンベア5に投入される。さらに、コントローラ24は、アーム機構22及び把持機構21を距離センサ11の画角外に移動させ、次の動作計画の受信を待つ状態になる。
また、コントローラ24は、ステップS16において、把持機構21による物品3の把持が成功しなかったと判断した場合(ステップS16、NO)、またはステップS14において、把持機構21がピックアップ位置に所定時間以内に到達しなかったと判断した場合(ステップS14、NO)、アーム機構22の動作を停止させ(ステップS19)、エラーを情報処理装置16に送信し(ステップS20)、ステップS11の処理に移行する。
なお、ロボットアーム15のコントローラ24は、情報処理装置16から終了指示が供給された場合、アーム機構22及び把持機構21を所定の位置に移動させ、図3の処理を終了する。
次に、情報処理装置16の動作について説明する。
図4及び5は、情報処理装置16の動作について説明する為のフローチャートである。
情報処理装置16の制御部32は、距離センサ11からかご車画像が供給されるのを待つ(ステップS21)。かご車画像には、かご車2及びかご車2内に積載された複数の物品3の表面と、距離センサ11との距離を示す情報が含まれている。即ち、距離センサ11が設置されている高さ、距離センサ11に用いられているレンズの焦点距離、及び距離センサ11に用いられている撮像素子の寸法が既知である場合、かご車画像に基づき、物品3の形状及び位置が算出可能である。
制御部32は、距離センサ11からかご車画像が供給された場合(ステップS21、YES)、かご車2内が空であるか否か判断する(ステップS22)。即ち、制御部32は、かご車2に物品3が搭載されているか否か判断する。例えば、制御部32は、かご車2の底面の全体がかご車画像に写っている場合、かご車2内が空であると判断する。
制御部32は、距離センサ11からかご車画像が供給されない場合(ステップS21、NO)、またはかご車2内が空であると判断した場合(ステップS22、NO)、ステップS21の処理に移行する。なお、制御部32は、かご車2内が空であると判断した場合(ステップS22、NO)、ロボットアーム15に終了指示を送信してもよい。
制御部32は、かご車2内に物品3が積載されていると判断した場合(ステップS22、YES)、タグリーダ12からかご車2の識別情報を取得する(ステップS23)。
制御部32は、取得した識別情報に対応する積載情報をサーバ13から取得する(ステップS24)。
制御部32は、取得した積載情報に基づいて、積載パターン(load pattern)を生成する(ステップS25)。また、制御部32は、かご車画像に基づいて、かご車2に積載された物品3の外観を示す荷姿(load appearance)データを生成する(ステップS26)。
図6乃至図8は、積載パターン41及び荷姿データ42に基づく制御部32による処理について説明する為の説明図である。図6は、積載パターン41、荷姿データ42、及び積載パターン41と荷姿データ42との比較の例について説明する為の説明図である。図7及び図8は、積載パターン41及び荷姿データ42に基づき、荷姿データ42を構成する複数の物品3の位置及び形状を認識する例について説明する為の説明図である。
積載パターン41は、かご車2に積載された物品3の荷姿を、積載情報に基づいて生成したデータである。即ち、積載パターン41は、かご車2に積載された物品3の積載時の荷姿(状態)を再現したデータである。例えば、積載パターン41は、3次元空間上における形状を示すデータである。具体的には、積載パターン41は、かご車2に積載された物品3の積載時の荷姿を示す点群データである。また、積載パターン41は、かご車2に積載された物品3の積載時の荷姿を示すベクトルデータであってもよい。
制御部32は、取得した積載情報に基づいて、かご車2に積載された各物品3の位置及び形状を認識する。制御部32は、認識した各物品3の形状に基づいて、各物品3毎に形状を示すデータ(形状データ)を生成する。制御部32は、認識した各物品3の位置に基づいて、各物品3の形状データを3次元空間上に配置する。これにより、制御部32は、積載パターン41を生成する。図6の例では、かご車2上に複数の物品3の形状データが配置されて積載パターン41が生成されている。
荷姿データ42は、かご車2に積載された物品3の荷姿を、かご車画像に基づいて生成したデータである。即ち、荷姿データ42は、かご車2に積載された物品3の現在の荷姿を示すデータである。例えば、荷姿データ42は、3次元空間上において、物品3によって形成される外観形状を示すデータである。具体的には、荷姿データ42は、かご車2に積載された物品3の現在の状態を示す点群データである。
制御部32は、ステップS21で取得した点群データであるかご車画像に基づいて、荷姿データ42を生成する。制御部32は、かご車画像としての点群データを、積載パターン41と等尺のデータに変換(正規化)することにより、荷姿データ42を生成する。図6の例では、荷姿データ42は、かご車2上に複数の物品3が積載された状態の形状を示している。なお、物品3毎に形状データを認識する処理を行っていない為、荷姿データ42は、図6に示されるように、複数の物品3の外形状が組み合わされた形状として生成される。
制御部32は、積載パターン41と荷姿データ42とを生成すると、積載パターン41と荷姿データ42とを比較する(ステップS27)。
図5に示されるように、制御部32は、積載パターン41と荷姿データ42とを比較した結果、積載パターン41と荷姿データ42とに差分があるか否か判断する(ステップS31)。例えば、かご車2の輸送中に、かご車2に積載された複数の物品3の中に、他の物品3との相対的な位置が積載時から変わった物品3(即ち移動した物品3)が存在する場合、積載パターン41と同じ位置及び形状で荷姿データ42が生成されないことが推定される。このような場合、ピッキング位置を決定する為に用いる情報が、積載情報だけでは不十分である。即ち、移動した物品3と、その物品3の位置とを特定する必要がある。言い換えると、積載パターン41と荷姿データ42とに差分がないと判断した場合(ステップS31、NO)、制御部32は、距離センサ11の撮像範囲に配置されたかご車2上に積載された、全ての物品3の形状及び位置を認識できている。この場合、制御部32は、後述するステップS37の処理に移行し、動作計画を生成することができる。即ち、制御部32は、積載パターン41が示す物品3の形状及び位置に基づいて、動作計画を生成する。
制御部32は、積載パターン41と荷姿データ42とに差分があると判断した場合(ステップS31、YES)、移動した物品3が存在すると判断し、移動した物品3を特定する(ステップS32)。例えば、制御部32は、積載パターン41と荷姿データ42とを位置及び姿勢を合わせて重ね、積載パターン41を構成する各物品3毎に、形状データと重なる荷姿データ42が存在するか否か判断する。即ち、制御部32は、積載パターン41と荷姿データ42とを位置及び姿勢を合わせて重ね、積載パターン41を構成する複数の物品3毎に、物品3の形状データが荷姿データ42に含まれるか否か判断する。
より具体的には、制御部32は、荷姿データ42が配置された3次元空間上において、積載パターン41のある物品3に対応する領域を、積載パターン41と荷姿データ42とを比較することにより推定する。さらに、制御部32は、推定した領域に荷姿データ42の点群が存在する場合、形状データが荷姿データ42に含まれていると判断する。
制御部32は、形状データが荷姿データ42に含まれていると判断した場合、形状データを積載パターン41から除く。制御部32は、この処理を、積載パターン41を構成する全ての物品3の形状データ毎に行う。全ての物品3についてこの処理を行った結果、積載パターン41に残っている形状データの物品3(即ち未検出の物品)が、移動した物品3であると特定することができる。
なお、制御部32は、推定した領域と荷姿データ42の点群とが完全に一致するか否か判断するのではなく、推定した領域内の荷姿データ42の点群の数(または密度)などに基づいて、形状データが荷姿データ42に含まれていると判断してもよい。この場合、制御部32は、推定した領域内の荷姿データ42の密度を算出し、算出した密度が予め設定された閾値未満である物品3を、他の物品3との相対的な位置が積載時から変わった物品3であると特定する。
また、制御部32は、同じ物品3の面を積載パターン41と荷姿データ42とから検出し、検出結果に基づいて、他の物品3との相対的な位置が積載時から変わった物品3を特定する構成であってもよい。この場合、制御部32は、荷姿データ42から物品3の面を検出し、検出した面に対応する面を積載パターン41から検出する。制御部32は、荷姿データ42からの物品3の面の検出結果と、積載パターン41からの物品3の面の検出結果とに基づいて、対応する面の変位量を算出する。即ち、制御部32は、荷姿データ42から検出した物品3の面と、積載パターン41から検出した物品3の面との差分を変位量として算出する。制御部32は、変位量が予め設定された閾値以上である物品3を、他の物品3との相対的な位置が積載時から変わった物品3であると特定する。なお、制御部32は、点群データである荷姿データ42から面を検出するのではなく、二次元画像に基づいて、物品3の面を検出する構成であってもよい。
例えば、図6の例では、積載パターン41の最上段に、物品3A、物品3B、物品3C、及び物品3Dが積載されている。荷姿データ42では、積載パターン41の物品3A及び物品3Bの形状データと重なるデータが存在するものの、積載パターン41の物品3C及び物品3Dの形状データと重なるデータが存在しない。この為、積載パターン41に物品3C及び物品3Dの形状データが、未検出物品として残る。この結果、制御部32は、物品3C及び物品3Dが、移動した物品3であると特定することができる。
次に、制御部32は、移動した物品3の形状データを、積載パターン41から除外する(ステップS33)。即ち、制御部32は、ステップS32で特定した物品(物品3C及び物品3D)の形状データを、積載パターン41から除外する。これにより、図7に示されるように、制御部32は、移動していない物品3の形状データで構成された積載パターン51を生成する。
次に、制御部32は、荷姿データ42から積載パターン51を除く(ステップS34)。即ち、制御部32は、ステップS33で生成した積載パターン51の各物品3の形状データを、荷姿データ42から除外する。これにより、図8に示されるように、制御部32は、ステップS32で特定した物品(物品3C及び物品3D)に相当する荷姿データ52を、荷姿データ42から抽出することができる。即ち、荷姿データ52は、移動した物品3の、荷姿データ42内での位置及び姿勢などを示すデータである。
次に、制御部32は、荷姿データ52から未検出の物品(物品3C及び物品3D)を検出する(ステップS35)。即ち、制御部32は、ステップS32で特定した物品(物品3C及び物品3D)の形状データと一致する部分を荷姿データ52からそれぞれ検出する。これにより、制御部32は、荷姿データ42において、移動した物品3C及び物品3Dが存在する位置を認識することができる。この結果、制御部32は、図8に示されるように、距離センサ11の撮像範囲に配置されたかご車2上に積載された、全ての物品3の形状及び位置を認識し、認識結果53を得ることができる。
例えば、制御部32は、荷姿データ52が配置された三次元空間において、物品3C及び物品3Dの形状データを移動及び回転させることにより、一致する部分を荷姿データ52から検出する。また、例えば、制御部32は、物品3C及び物品3Dの形状データの局所特徴量を抽出し、抽出した局所特徴量と荷姿データ52とをマッチングする構成であってもよい。また、制御部32は、さらに他の方法を用いて、荷姿データ52から未検出の物品3C及び物品3Dを検出する構成であってもよい。
制御部32は、ステップS35の処理において、未検出の物品(物品3C及び物品3D)が荷姿データ52から検出されたか否か判断する(ステップS36)。制御部32は、未検出の物品が荷姿データ52から検出され、認識結果53を得ることができたと判断した場合(ステップS36、YES)、認識結果53に基づいてピッキング位置を決定し、軌跡を決定し、動作計画を生成する(ステップS37)。制御部32は、生成した動作計画をロボットアーム15に送信し(ステップS38)、図4に示されるステップS11の処理に移行する。なお、情報処理装置16の制御部32は、操作端末14から終了指示が供給された場合、ロボットアーム15に終了指示を供給し、図4及び図5の処理を終了する。
また、制御部32は、未検出の物品が荷姿データ52から検出されなかったと判断した場合(ステップS36、NO)、例えば、ビデオコーディングにより未検出の物品を検出する(ステップS39)。具体的には、制御部32は、荷姿データ52と、未検出の物品3C及び物品3Dの形状データとを操作端末14に供給する。操作端末14は、荷姿データ52をディスプレイに表示させ、操作入力に基づいて、荷姿データ52から未検出の物品3C及び物品3Dに相当する領域を認識する。操作端末14は、荷姿データ52において、おける未検出の物品3C及び物品3Dに相当する領域を示す情報を情報処理装置16に供給する。これにより、制御部32は、荷姿データ42において、移動した物品3C及び物品3Dが存在する位置を認識することができる。この結果、制御部32は、認識結果53を得ることができる。制御部32は、認識結果53に基づいてピッキング位置を決定し、軌跡を決定し、動作計画を生成する(ステップS37)。制御部32は、生成した動作計画をロボットアーム15に送信し(ステップS38)、図4に示されるステップS11の処理に移行する。
なお、制御部32は、ビデオコーディングではなく、他の方法により未検出の物品を検出する構成であってもよい。例えば、制御部32は、距離センサ11により得られたラスタ画像に基づいて、荷姿データ42において未検出の物品3C及び物品3Dが存在する位置を認識する構成であってもよい。
上記したように、情報処理装置16の制御部32は、かご車2に物品3が積載された際の、物品3毎の形状及び積載位置を示す積載情報を取得する。制御部32は、積載情報から、かご車2に積載された物品3の積載時の荷姿を示す積載パターン41を生成する。制御部32は、距離センサ11から、かご車2及びかご車2に積載された物品3の点群データを取得し、荷姿データ42を生成する。制御部32は、積載パターン41と荷姿データ42とに基づき、積載時から移動していない物品3を認識するとともに、積載時から移動した物品3を特定する。即ち、制御部32は、積載パターン41と荷姿データ42とに基づき、他の物品3との相対的な位置が積載時から変わった物品3を特定する。制御部32は、移動した物品3の荷姿データ52を荷姿データ42から抽出する。制御部32は、荷姿データ52に基づき、移動した物品3の位置及び形状を認識し、かご車2に積載された全ての物品3の形状及び位置の認識結果53を取得する。制御部32は、認識結果53に基づき、動作計画を生成し、動作計画をロボットアーム15に供給する。すなわち、制御部32は、積載パターン41に基づき、他の物品3との相対的な位置が積載時から変わっていない物品3の位置及び形状を認識し、他の物品3との相対的な位置が積載時から変わっていない物品3の動作計画を生成する。また、制御部32は、荷姿データ42に基づき、他の物品3との相対的な位置が積載時から変わった物品3の位置及び形状を認識し、他の物品3との相対的な位置が積載時から変わった物品3の動作計画を生成する。
このように、情報処理装置16は、移動していない物品3については、積載情報に基づき位置及び形状を認識し、且つ、移動した物品3の荷姿データ52を荷姿データ42から抽出し、移動した物品3の位置及び形状を認識する。これにより、情報処理装置16は、かご車2の輸送中に、かご車2に積載された物品3が移動した場合であっても、情報処理装置16は、高い精度で且つ効率的に、物品3の位置及び形状を認識することができる。この結果、情報処理装置16は、容易且つ正確に動作計画を生成することができる。
また、制御部32は、積載パターン41を構成する複数の物品3毎に、積載パターン41における形状データが荷姿データ42に含まれているか否か判断する。制御部32は、積載パターン41における形状データと一致する形状が荷姿データ42に含まれていない場合、物品3が移動したと判断する。これにより、制御部32は、移動した物品3を容易に特定することができる。
また、制御部32は、移動した物品3の形状データを、積載パターン41から除外し、積載パターン51を生成する。制御部32は、荷姿データ42から積載パターン51を除外することにより、移動した物品3の点群データである荷姿データ52を生成する。制御部32は、荷姿データ52に基づき、移動した物品3の位置及び形状を認識する。制御部32は、積載情報に基づき、移動していない物品3の位置及び形状を認識し、荷姿データ52に基づき、移動した物品3の位置及び形状を認識し、かご車2に積載された全ての物品3の形状及び位置の認識結果53を取得する。このように、制御部32は、移動した物品3を容易に検出可能な荷姿データ52を生成することにより、移動した物品3の位置及び形状を容易に認識することができる。
なお、上記の実施形態では、情報処理装置16の制御部32は、タグリーダ12によりかご車2の無線タグ4から取得した識別情報に基づき、かご車2を特定する構成であると説明したが、この構成に限定されない。かご車2に、かご車2の識別情報がコード化された二次元コードが貼り付けられており、距離センサ11が、かご車2に貼り付けられた二次元コードの画像を取得し、制御部32が、二次元コードの画像に基づいて、かご車2の識別情報を取得する構成であってもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…仕分システム、2…かご車、3…物品、4…無線タグ、5…ベルトコンベア、11…距離センサ、12…タグリーダ、13…サーバ、14…操作端末、15…ロボットアーム、16…情報処理装置、17…ネットワーク、21…把持機構、22…アーム機構、23…状態検出センサ、24…コントローラ、31…通信インタフェース、32…制御部、33…プロセッサ、34…メモリ、41…積載パターン、42…荷姿データ、51…積載パターン、52…荷姿データ、53…認識結果。

Claims (5)

  1. 所定範囲に置かれたかご車に積載された物品を把持する把持機構と、動作計画に基づいて前記把持機構を移動させるアーム機構とを有するロボットアームに、前記動作計画を供給する情報処理装置であって、
    前記動作計画を生成し、前記動作計画を前記ロボットアームに供給する制御部を具備し、
    前記制御部は、
    前記所定範囲から距離センサが取得したデータに基づいて、前記かご車に積載された前記物品の外観を示す荷姿データを生成し、
    前記かご車に複数の前記物品が積載された際の前記物品毎の位置及び形状を示す積載情報に基づいて、前記物品の前記かご車への積載時の状態を示す積載パターンを生成し、
    前記積載パターンと前記荷姿データとに基づき、他の物品との相対的な位置が積載時から変わった物品を特定し、
    前記積載パターンに基づき、他の物品との相対的な位置が積載時から変わっていない物品に対する前記動作計画を生成し、
    前記荷姿データに基づき、他の物品との相対的な位置が積載時から変わった物品に対する前記動作計画を生成する、
    情報処理装置。
  2. 前記制御部は、
    前記積載パターンと前記荷姿データとを位置及び姿勢を合わせて重ね、前記積載パターンを構成する複数の前記物品毎の領域を特定し、前記領域に前記荷姿データが含まれていない前記物品を、他の物品との相対的な位置が積載時から変わった物品であると特定する請求項1に記載の情報処理装置。
  3. 前記制御部は、
    移動した前記物品を前記積載パターンから除外し、
    前記荷姿データから、移動した前記物品を除外した前記積載パターンを除外して、移動した前記物品の前記荷姿データを抽出する請求項1または2に記載の情報処理装置。
  4. 所定範囲に置かれたかご車に積載された物品を把持する把持機構と、動作計画に基づいて前記把持機構を移動させるアーム機構とを有するロボットアームに、前記動作計画を供給する情報処理装置において実行される情報処理プログラムであって、
    前記情報処理装置に
    前記所定範囲から距離センサが取得したデータに基づいて、前記かご車に積載された前記物品の外観を示す荷姿データを生成することと、
    前記かご車に複数の前記物品が積載された際の前記物品毎の位置及び形状を示す積載情報に基づいて、前記物品の前記かご車への積載時の状態を示す積載パターンを生成することと、
    前記積載パターンと前記荷姿データとに基づき、他の物品との相対的な位置が積載時から変わった物品を特定することと、
    前記積載パターンに基づき、他の物品との相対的な位置が積載時から変わっていない物品に対する前記動作計画を生成することと、
    前記荷姿データに基づき、他の物品との相対的な位置が積載時から変わった物品に対する前記動作計画を生成することと、
    を実行させる情報処理プログラム。
  5. ロボットアームと、前記ロボットアームに動作計画を供給する情報処理装置とを具備する仕分システムであって、
    前記ロボットアームは、
    所定範囲に置かれたかご車に積載された物品を把持する把持機構と、
    動作計画に基づいて前記把持機構を移動させるアーム機構と、
    を具備し、
    前記情報処理装置は、
    前記所定範囲から距離センサが取得したデータに基づいて、前記かご車に積載された前記物品の外観を示す荷姿データを生成し、前記かご車に複数の前記物品が積載された際の前記物品毎の位置及び形状を示す積載情報に基づいて、前記物品の前記かご車への積載時の状態を示す積載パターンを生成し、前記積載パターンと前記荷姿データとに基づき、他の物品との相対的な位置が積載時から変わった物品を特定し、前記積載パターンに基づき、他の物品との相対的な位置が積載時から変わっていない物品に対する前記動作計画を生成し、前記荷姿データに基づき、他の物品との相対的な位置が積載時から変わった物品に対する前記動作計画を生成する仕分システム。
JP2018095302A 2018-05-17 2018-05-17 情報処理装置、情報処理プログラム、及び仕分システム Pending JP2019199335A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018095302A JP2019199335A (ja) 2018-05-17 2018-05-17 情報処理装置、情報処理プログラム、及び仕分システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018095302A JP2019199335A (ja) 2018-05-17 2018-05-17 情報処理装置、情報処理プログラム、及び仕分システム

Publications (1)

Publication Number Publication Date
JP2019199335A true JP2019199335A (ja) 2019-11-21

Family

ID=68611621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018095302A Pending JP2019199335A (ja) 2018-05-17 2018-05-17 情報処理装置、情報処理プログラム、及び仕分システム

Country Status (1)

Country Link
JP (1) JP2019199335A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113458009A (zh) * 2021-07-02 2021-10-01 北京思灵机器人科技有限责任公司 无序线材分拣装置、分拣系统和分拣方法
JP7434000B2 (ja) 2020-03-13 2024-02-20 株式会社東芝 物品処理管理装置、物品処理制御システム、及びプログラム
JP7481867B2 (ja) 2020-03-16 2024-05-13 株式会社東芝 制御装置及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7434000B2 (ja) 2020-03-13 2024-02-20 株式会社東芝 物品処理管理装置、物品処理制御システム、及びプログラム
JP7481867B2 (ja) 2020-03-16 2024-05-13 株式会社東芝 制御装置及びプログラム
CN113458009A (zh) * 2021-07-02 2021-10-01 北京思灵机器人科技有限责任公司 无序线材分拣装置、分拣系统和分拣方法

Similar Documents

Publication Publication Date Title
CN111776759B (zh) 具有自动化包裹登记机构的机器人系统及其操作方法
US9707682B1 (en) Methods and systems for recognizing machine-readable information on three-dimensional objects
US10766141B1 (en) Robotic system with a coordinated transfer mechanism
JP6140204B2 (ja) 3次元センサを備えた搬送ロボットシステム
US11396101B2 (en) Operating system, control device, and computer program product
JP7005388B2 (ja) 情報処理装置及び仕分システム
US11288814B2 (en) System and method of object detection based on image data
JP2019199335A (ja) 情報処理装置、情報処理プログラム、及び仕分システム
US11964399B2 (en) Target object recognition device, manipulator, and mobile robot
JP7175487B1 (ja) 画像ベースのサイジングメカニズムを備えたロボットシステム及びロボットシステムを操作するための方法
JP2017170567A (ja) ワーク認識方法及びランダムピッキング方法
JP2019098431A (ja) 情報処理装置及び仕分システム
CN111618852B (zh) 具有协调转移机构的机器人系统
CN115485216A (zh) 机器人多表面夹持器组件及其操作方法
JP7163116B2 (ja) 情報処理装置及びピッキングシステム
US20230071488A1 (en) Robotic system with overlap processing mechanism and methods for operating the same
US12002007B2 (en) Robotic system with automated package scan and registration mechanism and methods of operating the same
CN115609569A (zh) 具有基于图像的尺寸确定机制的机器人系统及其操作方法