JPWO2016113836A1 - マニプレータ制御方法、システム、およびマニプレータ - Google Patents

マニプレータ制御方法、システム、およびマニプレータ Download PDF

Info

Publication number
JPWO2016113836A1
JPWO2016113836A1 JP2016569144A JP2016569144A JPWO2016113836A1 JP WO2016113836 A1 JPWO2016113836 A1 JP WO2016113836A1 JP 2016569144 A JP2016569144 A JP 2016569144A JP 2016569144 A JP2016569144 A JP 2016569144A JP WO2016113836 A1 JPWO2016113836 A1 JP WO2016113836A1
Authority
JP
Japan
Prior art keywords
manipulator
mirror
camera
image
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016569144A
Other languages
English (en)
Other versions
JP6328796B2 (ja
Inventor
潔人 伊藤
潔人 伊藤
宣隆 木村
宣隆 木村
敬介 藤本
敬介 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016113836A1 publication Critical patent/JPWO2016113836A1/ja
Application granted granted Critical
Publication of JP6328796B2 publication Critical patent/JP6328796B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

移動マニプレータにおいて、障害物に衝突しないように位置を制御する方法を提供する。鏡の姿勢を検出する手続きと、画像から物体の姿勢を検出する手続きとを備え、鏡に映った画像から物体の姿勢を検出し、検出された物体の姿勢に基づきマニプレータを制御する。

Description

本発明はマニプレータの構成および制御方法に関し、特に画像を用いた移動型マニプレータの構成および制御方法に関する。
移動マニプレータは、倉庫や工場などの施設や家庭内などにおける人間の活動を代替するものとして、実用化が期待されている。 移動マニプレータは、一般に、前進・後退・旋回などにより自身を移動させる移動台車部と、移動台車部に取り付けられた1つ以上の関節を有するアーム部と、アーム部の先端に取り付けられたグリッパ部とを有する。グリッパ部は、特定の物体を把持したり、移動させたりすることができる。こうした、グリッパ部による物体の把持や移動を、物体に対する操作と呼称する。
工場などにおいて架台に固定された据え付け型マニプレータは、特定の作業空間において、決められた位置にある対象物に対して操作を行う。従って、周囲の障害物とマニプレータが衝突・干渉しないように対象物を操作する方法を、あらかじめ設計することができる。
一方、移動マニプレータは、据え置き型マニプレータとは異なり、それ自身が動き回るため、アーム部やグリッパ部の作業空間を限定することはできない。すなわち、移動型マニプレータは、作業対象物と障害物とが雑然と配置された未知の空間が作業空間となる。そうした未知の作業空間において、移動マニプレータは、障害物と衝突・干渉が発生しないように、アーム部やグリッパ部や対象物を操作する必要がある。そのためには、マニプレータ自身、特に物体とのインタラクションが生じるアーム部やグリッパ部と、対象物や周囲の障害物の位置関係を取得することが必要となる。
従来、移動マニプレータを含むロボットと、対象物や周囲の環境との位置関係を、カメラを用いて取得する技術がある。
たとえば、特許文献1では、作業空間に設置されたカメラが、作業ロボットの画像(監視画像)を撮影し、操作者が上述の一人称画像および監視画像を見ながら操作を行う技術が公開されている。
また、特許文献2では、マニプレータを有するロボットの体幹に第1のカメラを備え、第1のカメラとは別の第2のカメラをマニプレータに備え、第1のカメラの画像と第2のカメラの画像とを合成する発明が開示されている。これにより、第1のカメラに映りこむマニプレータ部分の領域を、第2のカメラで補完することで、第1のカメラにおけるマニプレータによる死角を除去し、把持対象物の位置を第1のカメラにより特定している。
特許文献3では、作業空間に設けられた識別面と、識別面に対向する位置に設けられた反射鏡と、反射鏡を介して識別面を撮影するカメラを備え、カメラによって撮影された識別面の画像に基づいて、作業空間への侵入物を検出する技術が公開されている。
特開2001−062766 特開2010−131751 特開2013−52485
しかしながら、特許文献1記載の技術では、監視画像用のカメラを、作業空間に死角がないように設置しなければならない。この場合、対象物が棚のような場所に置かれている場合、必ず死角ができてしまうという課題がある。
また、特許文献2記載の技術では、腕カメラを用いても、対象物の陰となった死角は撮影できない。こうした対象物の陰を撮影するためには、腕カメラを対象物の背後に回り込ませる必要がある。腕カメラを回り込ませるために腕を移動させる経路に障害物があった場合、マニプレータと障害物が衝突してしまう。
一方、特許文献3記載の技術では、作業空間において、反射鏡の位置と、それに対するカメラの位置は、予め所定の位置関係となるように、固定されているのが前提である。そのため、カメラや反射鏡の位置が変わると識別面を撮影できなくなる。すなわち、作業空間を変更する場合は、反射鏡と、それに対するカメラの位置とを、所定の位置関係となるように、設置し直す必要がある。従って、移動するマニプレータのように作業領域が任意に変更されるものには適用できない。
上記を鑑み、本発明が解決する課題は、移動マニプレータの作業空間において、グリッパ部と対象物の位置関係、および周囲の環境とを、死角無く撮影し、それに基づき、障害物に衝突しないようにグリッパ部の位置を制御する方法を提供することにある。
本願において開示される発明のうち代表的なものを挙げれば、画像から鏡の姿勢を検出する手続きと、画像から物体の姿勢を検出する手続きとを備え、前記姿勢を検出された鏡に映った物体の姿勢を検出し、検出された前記物体の姿勢に基づきマニプレータを制御する方法である。
本発明の他の側面は、移動可能なマニプレータを、対象物が配置された作業空間で動作させるマニプレータの制御方法である。この方法では、作業空間またはその近傍に配置された鏡をマニプレータに搭載されたカメラで撮像し、カメラの姿勢およびカメラによる撮像画像に基づいて鏡の姿勢を検出する。そして、カメラによる撮像画像から鏡の領域を検出し、検出された鏡の領域から、対象物の少なくとも一部の像を検出する。そして、鏡の姿勢および対象物の像に基づいて、作業空間における対象物の姿勢を算出し、算出された対象物の姿勢の情報に基づいて、マニプレータを操作する。
鏡の姿勢および対象物の像に基づいて、作業空間における対象物の姿勢を算出する手法としては、種々考えられる。一例としては、カメラの姿勢と記鏡の姿勢に基づいて、カメラの鏡像視点を算出し、カメラの鏡像視点と鏡に映る対象物の像に基づいて、作業空間における対象物の姿勢を算出する。他の例としては、カメラの姿勢と鏡に映る対象物の像に基づいて、鏡像空間における対象物の虚像の姿勢を算出し、対象物の虚像の姿勢と鏡の姿勢に基づいて、作業空間における対象物の姿勢を算出する。
このように、鏡に映った像を利用することで、カメラの位置からは撮影できない情報を得ることができ、マニプレータの制御に利用することができる。
さらに具体的な例を説明すると、対象物は棚に載置され、棚の配置情報に基づいて、マニプレータを所定の棚の近傍に移動し、マニプレータに固定された原点を基準として、カメラ、鏡、および対象物の姿勢を算出するように構成してもよい。マニプレータ自体は移動するため、作業時にはマニプレータを基準とした座標軸に統一することで、制御が容易となる。
また、鏡に映る像としては、操作対象物だけでなく、マニプレータ自身や、その他の物体の像を利用してもよい。また、鏡に映る像と、カメラで直接撮影した鏡以外の領域の画像を統合して用いることで、より多くの情報を得ることができる。
鏡の姿勢を検知するための方法としては、例えば、鏡または作業空間内にマーカーを配置し、カメラによる撮像画像におけるマーカーの情報に基づいて鏡の姿勢を検出することができる。
本発明の他の側面は、移動可能なマニプレータを、対象物が配置された作業空間で動作させるマニプレータの制御システムである。このシステムにおいて、マニプレータは、マニプレータを移動させる移動機構と、対象物を操作する操作機構と、作業空間を撮像するためのカメラと、カメラの姿勢を変化させるカメラ制御機構と、制御部を有する。制御部は、カメラの姿勢を検出する機能と、カメラの姿勢およびカメラによる撮像画像に基づいて撮像画像内の鏡の姿勢を検出する機能とを有する。また、カメラによる撮像画像から鏡の領域を検出し、検出された鏡の領域から、対象物の少なくとも一部の像を検出する機能と、鏡の姿勢および対象物の像に基づいて、作業空間における前記対象物の姿勢を算出する機能とを有する。そして、このシステムでは、算出された対象物の姿勢の情報に基づいて、操作機構を操作する。
操作機構の構成例としては、少なくとも一つの関節機構で連結されたアーム部と、アーム部に保持され、対象物を把握および移動可能なグリッパ部を有する例が考えられる。また、カメラは、グリッパ部に配置することができる。
カメラの姿勢を検出する一例としては、制御部は、操作機構の動作を制御するとともに、操作機構の形状の幾何学的データを記憶しており、該幾何学的データを用いてカメラの姿勢を検出することができる。
また、好ましい具体例では、対象物が配置された作業空間は、対象物が配置された棚を基準として定義することができ、棚に鏡を配置するように構成することができる。
さらに好ましい具体例では、マニプレータは、複数の前記棚のうち任意の棚の近傍に移動可能な構成である。制御部は、複数の棚の配置に関する棚配置情報と、棚の形状に関する棚形状情報と、各棚に配置された対象物に関する対象物情報を記憶しており、制御部は、棚配置情報と対象物情報に基づいて、マニプレータを所定の棚の近傍に移動させ、カメラで前記作業空間を撮像するように構成することができる。
また、鏡の姿勢を検出しやすくするための具体例として、作業空間にはマーカーが配置されており、マーカーと鏡との相対的位置関係は制御部に記憶されており、カメラによる撮像画像中のマーカーに基づいて撮像画像内の鏡の姿勢を検出することができる。
本発明のさらに他の側面は、対象物が配置された作業空間で動作させるマニプレータである。このマニプレータは、マニプレータを移動させる移動機構と、対象物を操作するグリッパ部と、グリッパ部を移動させるアーム部と、作業空間を撮像するためのカメラと、カメラの姿勢を変化させるカメラ制御機構と、制御部を有する。制御部は、カメラの姿勢を検出する機能と、カメラの姿勢およびカメラによる撮像画像に基づいて撮像画像内の鏡の姿勢を検出する機能とを有する。また、カメラによる撮像画像から対象物の少なくとも一部の像を検出する機能と、鏡の姿勢および対象物の像に基づいて、作業空間における対象物の姿勢を算出する機能と、算出された対象物の姿勢の情報に基づいて、グリッパ部を操作する。さらに具体的な構成例をしては、グリッパ部に配置されたマーカーを有し、鏡の姿勢を検出する機能において、マーカーの姿勢に関する情報と、カメラによる撮像画像中のマーカーの像を用いて、該撮像画像内の鏡の姿勢を検出するようにしてもよい。
以上において制御部の構成は、単体のコンピュータで構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワークで接続された他のコンピュータで構成されてもよい。具体的には、制御部は、マニプレータに搭載されたコンピュータで構成してもよいし、機能の一部または全部を、マニプレータと通信可能なサーバに配置してもよい。また、制御部の機能は処理装置で実行されるソフトウエアで実現することができる。また、ソフトウエアで構成した機能と同等の機能は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などのハードウエアでも実現できる。そのような態様も本願発明の範囲に含まれる。
本発明によれば、移動マニプレータの作業空間において、障害物に衝突しないように制御できる。上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。
移動マニプレータによる、対象物のピッキング動作を模式的に示した斜視図である。 実施の形態1にかかる移動マニプレータの概略構成の一例を模式的に示した斜視図である。 実施の形態1にかかる移動マニプレータのグリッパ部の構成の一例を示した側面図である。 実施の形態1にかかる棚の構成の一例を模式的に示した斜視図である。 実施の形態1にかかる平面鏡の構成の一例を模式的に示した正面図である。 実施の形態1にかかる移動マニプレータの制御システムの構成の一例を示したブロック図である。 実施の形態1にかかる移動マニプレータの動作手順の一例を示した流れ図である。 図7のステップS702における作業空間の側面から見た様子の一例を模式的に示した側面図である。 図8においてカメラ14により撮影された撮影画像141の一例を示したイメージ図である。 図7のステップS702における作業空間の側面から見た様子の別なる一例を模式的に示した側面図である。 図10においてカメラ14により撮影された撮影画像142の一例を示したイメージ図である。 実施の形態1にかかる平面鏡の姿勢を算出する方法を模式的に示した原理図である。 実施の形態1にかかるカメラの平面鏡に対する鏡像視点C’を説明した側面図である。 実施の形態1にかかるカメラの平面鏡に対する鏡像視点C”を説明した側面図である。 実施の形態1にかかる移動マニプレータのグリッパ部の構成の別なる一例を示した側面図である。 実施の形態1にかかる平面鏡の構成の別なる一例を模式的に示した正面図である。 実施の形態1にかかるチェッカーパターンマーカーの構成を示した図面である。 実施の形態1にかかる凸面鏡の構成の一例を示した模式図である。 実施の形態1にかかる棚の構成の別なる一例を示した斜視図である。 実施の形態2にかかる棚の構成を模式的に示した斜視図である。 実施の形態2にかかる移動マニプレータの動作手順の一例を示した流れ図である。 実施の形態2にかかるトレイの構成を示した模式図である。 実施の形態3にかかる移動マニプレータのグリッパ部の構成の一例を示した斜視図である。 実施の形態3にかかる平面鏡の反射面を算出する方法の一例を示した側面図である。 実施の形態3にかかる棚の構成を模式的に示した斜視図である。 実施の形態4にかかる移動マニプレータの動作手順の一例の一部を示した流れ図である。 実施の形態4にかかる平面鏡の反射面を算出する方法の一例を示した側面図である。
以下、本発明の実施の形態について添付図面を参照して説明する。なお、全ての図面において、実施形態が異なる場合であっても、同一または相当する部材については同一の符号を付し、共通する説明は繰り返さない。本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数または順序を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。
図1は移動マニプレータによる、対象物のピッキング動作を示した図である。本発明の実施の形態1では、図1に示すように、移動マニプレータ1によって、棚2に置かれる対象物3を把持し、持ち上げる動作について説明する。以降、移動マニプレータ1による、対象物3の把持および持ち上げにかかる一連の動作を、対象物3のピッキング動作と称する。
(構成)
図2は、実施の形態1にかかる移動マニプレータ1の概略構成を示す模式的な斜視図である。図2において、移動型マニプレータ1は、制御部10と、移動台車部11と、アーム部12と、アーム部12の先端に固定されるグリッパ部13と、グリッパ部13の所定の箇所に具備されるカメラ14とから構成される。
制御部10は、有線ないし無線によって上位制御部6(後述)の指示を受信し、移動マニプレータ1の動作の制御を行う。ここで、動作の制御とは、前記指示に基づき、移動マニプレータ1の各部の動作を制御するだけではなく、移動マニプレータ1のカメラ14などの情報に基づいて、移動マニプレータ1の動作を計画するなどの知的処理も含むものとする。
移動台車部11は、車輪110などの移動機構を1つ以上備え、移動マニプレータ制御部10の動作指令に基づき、前進・後退・旋回などにより、移動マニプレータ1を平坦地の任意の場所に移動させる。なお、ここで平坦地とは、単純な平面だけではなく、斜面や小さな段差などを含んでもよい。以下、移動台車部11による移動マニプレータ1の平坦地移動を、移動マニプレータ1の走行と称する。
アーム部12は、移動台車部11の所定の箇所に固定される。また、アーム部12は、1つ以上の関節機構を有し、移動マニプレータ制御部10の動作指令に基づき、グリッパ部13を、所定の3次元空間内において、所定の位置および方向に移動させる。以下、グリッパ部13の位置および方向を、グリッパ部13の姿勢と称する。なお、図2において、アーム部12は、複数の関節機構が腕部により連結される垂直多関節型機構を持つ構成を示したが、グリッパ部13を、所定の姿勢に移動させる構成であれば、この構成に限るものではない。たとえば、水平多関節機構、直交多関節機構、パラレルリンク機構であってもよく、また、それらの組み合わせであってもよい。
グリッパ部13は、所定の物体を把持する機能を有する。なお、図2において、グリッパ部13は、2本の指機構130により、所定の物体を挟むことで把持する構成を示しているが、これに限るものではない。たとえば、3本以上の指機構を有している構成や、指機構を用いず真空吸着機構や磁石により、対象物を把持する構成であってもよい。
図3は、図2におけるアーム部12の先端部およびグリッパ部13およびカメラ14の模式的な側面図である。図3おいて、カメラ14は、グリッパ部13の指機構130の延伸方向に対して、所定の角度でオフセットされて固定される。すなわち、カメラ14の視野Vの下端方向が、指の延伸方向と平行となるように固定される。これにより、視野Vに指機構130が映りこむことを避けることができる。
アーム部12には、関節機構121が具備され、グリッパ部13を、図3における矢印Pに沿って、任意の角度に向けることができる。同様に、アーム部12には、関節機構122が具備され、グリッパ部13を、図3における矢印Rに沿って、任意の角度に向けることができる。また、図示されないアーム部12の他の関節機構によって、アーム部12は、グリッパ部13を、図3における矢印Yに従った、任意の方向に向けることができる。これらにより、アーム部12は、グリッパ部13を任意の方向に向けることができる。もっとも、図3に示した構成は一例であって、公知の種々の関節機構を組み合わせて構成することができる。
図4は、本発明の実施例1にかかる棚2の概略構成を示す模式的な斜視図である。棚2は、4本の支柱20によって支持された1枚の棚板21と1枚の棚天板22とから構成される。棚板21にはピッキング対象物3が複数置かれている。
ここで、実施の形態1にかかる、移動マニプレータ1に対して、作業空間を定義する。作業空間とは、移動マニプレータ1のピッキング動作の対象となる1つ以上の対象物3が置かれた所定の空間である。図4において、移動マニプレータ1の作業空間とは、四方を支柱20によって囲まれた、棚板21の上面から棚天板22の下面に至るまでの直方体形状の3次元的な空間と定義する。
実施の形態1にかかる作業空間には、所定の位置に平面鏡4が配置される。図4においては、平面鏡4は、その反射面を棚板21の方向に向けて、棚天板22の所定の箇所に、所定の角度で固定される。もっとも、対象物3や平面鏡4は厳密に作業空間内に存在が制限されるものではなく、対象物3や平面鏡4の一部が作業空間からはみ出したり、対象物3や平面鏡4の全体が作業空間の近傍に配置されることを妨げるものではない。
図5は、平面鏡4の反射面を正面から見た構成を模式的に示す図面である。平面鏡4は、ガラス、金属、プラスチック等で構成可能であり、カメラ14で撮像可能な領域の波長を少なくとも反射するものとする。図5において、平面鏡4の反射面の四隅には所定の形状のマーカー5が配置される。図5において、マーカー5は、全て同一の形状をしている。マーカー5の形状は、カメラ14により撮影された画像から、所定画像処理により、その存在可否および撮影された個数を検出可能な形状であればよい。更に、前記画像処理において、前記画像内の各マーカー5の中心座標を算出可能な形状であればよい。マーカー5は、平面鏡表面または内部への突起物付加、プリント、刻印、シールの塗布等で形成可能である。また、平面鏡4に配置された、各マーカー5の位置関係は、あらかじめ制御部10もしくは上位制御部6(後述)に、記憶される。
図6は、実施の形態1における移動マニプレータの制御システムの構成の一例を示した図面である。移動マニプレータ1の制御部10には、マニプレータ1の全体を制御する全体制御部100、制御に必要なデータを格納するデータ記憶部101、移動台車部11の制御を行う移動台車制御部102、アーム部12の制御を行うアーム制御部103、グリッパ部13の制御を行うグリッパ制御部104、カメラ14で得られた画像を処理する画像処理部105が、具備される。また、移動マニプレータ1の制御部10は、有線ないし無線によって、上位制御部6と通信可能な構成である。
上位制御部6には、地図データ601、棚形状データ602、対象物データ603といった情報を記憶する対象物データ記憶部60が具備される。上位制御部6は、移動マニプレータ1の筐体に内蔵されてもよく、もしくは移動マニプレータ1の外部にあってもよい。上位制御部6と制御部10は、連携して情報処理を行い、移動マニプレータ1の制御ができればよいので、単体のコンピュータで構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、有線または無線のネットワークで接続された複数のコンピュータで構成されてもよい。
ここで、地図データ601は、移動マニプレータ1の移動台車部11が走行できうる空間(以下、走行空間)において、棚2が配置されている地点などが記述されたデータである。棚2が、走行空間において、複数配置されている場合は、それぞれの棚2に個別の識別符号が付与されて、識別符号と地点とが対になって記憶されているものとする。棚形状データ602は、棚2の所定の部位を基準にして、棚板22の幅・奥行き・高さといった情報が記述されたデータである。対象物データ603は、ピッキング動作の対象となる対象物3の種類あるいは識別番号、また、その対象物3が配置される棚板22の識別符号等の情報が格納される。また、対象物データ603は、さらに対象物3の形状、重さ、材質などの特性データを含んでもよい。
すなわち、地図データ601と、棚形状データ602と、対象物データ603との組み合わせによって、上位制御部6は、ピッキング動作の対象となる対象物3が陳列される作業空間が、走行空間のどこに存在するかを特定可能であり、それに基づき移動マニプレータ1の制御部10に、ピッキング指令を送信することができる。
一方、作業空間において、ピッキング動作の対象となる対象物3が、どのような姿勢(位置および向き。例えば、位置は対象物であるビンの重心の位置。向きはビンが立っているか倒れているか等)で陳列されているかは、上位制御部6は知り得ない。陳列される対象物3は、移動マニプレータ1によりピッキングされたり、走行空間内における人間の作業員によりピッキングされたりするため、随時姿勢が変更されている可能性があるためである。
従って、移動マニプレータ1は、作業空間における対象物3の姿勢を確認してから、対象物3をピッキングする必要がある。
(動作)
次に、図7ないし図13を参照して、実施の形態1における移動マニプレータによる対象物3のピッキング動作の手順について説明する。
図7は、実施の形態1におけるピッキング動作手順の全体概要を示す図である。なお、図7における各ステップは、移動マニプレータ1の制御部10に内蔵される所定のプログラムによって実行されてもよいし、上位制御部6で実行し、逐一もしくは纏めて移動マニプレータ1の制御部10に指令を送信するようにしてもよい。
図7のフローは、例えばオペレータが、対象物3を特定しピッキングを行う指示を上位制御部6に入力することにより開始される(START)。
ステップS701において、移動マニプレータ1は、ピッキングする対象物3が陳列される棚2の前まで走行する。前述のように、上位制御部6には、移動マニプレータ1の走行空間において、ピッキングする対象物3が陳列されている棚2の地点、すなわち作業空間の地点が記憶されている。上位制御部6は、移動マニプレータ1の制御部10に対して、その作業空間の地点を示す情報を含んだピッキング指令を送信する。そして、移動マニプレータ1は、前記ピッキング指令で指定される作業空間の地点まで、移動台車部11を制御して走行する。この走行には、たとえば、あらかじめ走行空間に走行経路を示す磁気ケーブルなどを埋め込んでおき、その磁気ケーブルに沿って移動するなどの、既存技術を用いればよい。あるいは地図データ601を用いて、自律的に移動する既存技術を用いてもよい。
ステップS702において、移動マニプレータ1は棚2の前まで走行した後、グリッパ部13の姿勢を変更して、棚の前方(開口部)から、カメラ14を、前記作業空間を向くように移動させ、画像を撮影する。上位制御部6に予め記憶される、作業空間の地点情報と棚形状データ602により、移動マニプレータ1の中心(中心は任意に定めることができる。以下、説明を単純にするために、移動マニプレータ1の原点と称する)に対する、作業空間における棚板21の姿勢は既知である。そのため、移動マニプレータ1は、棚板21の位置から相対的に定められる所定の姿勢(位置及び向き)に、カメラ14が位置するように、アーム部12およびグリッパ部13を制御することができる。例えば、棚2から所定距離離れた位置に移動マニプレータ1の中心を位置決めし、アーム12およびグリッパ13を棚板21の姿勢に応じて設定された姿勢に位置決めする。
図8は、ステップS702において、作業空間の側面から見た様子を模式的に示した図面である。
図8において、棚板21の上には、ピッキング動作の対象である対象物3aの他に、グリッパ部13から見て対象物3aの奥側に、ピッキング動作の対象ではない対象物3bが位置している。従って、グリッパ部13によって対象物3aをピッキングする際には、グリッパ部13の指機構130が対象物3bと干渉しないように制御する必要がある。
図9はステップS702においてカメラ14により撮影された撮影画像141の一例を示した図面である。
図9に示されるように、撮影画像141において、対象物3bの像は、対象物3aの陰となるように撮影される。こうした、物体の陰となり一部が欠損した像から、対象物3bの姿勢を、精度よく特定することは、一般的に困難となる。また、グリッパ部13から見て、対象物3bが、対象物3aによって完全に隠されている場合は、図8の状態から、対象物3bの存在を検知することはできない。
図7に戻って説明を続ける。
ステップS703において、撮影画像141(図9)に対して、平面鏡4の四隅にあるマーカー5の検出処理を行う。ここでは、マーカー5の形状や個数は、予め例えば棚形状データ602の一部として記憶しておく。マーカー5の形状や個数が既知であるため、公知のテンプレートマッチング処理により、撮影画像141に撮影されるマーカー5の個数および、その撮影画像141における画素座標値を特定することができる。なお、マーカー5を省略し、画像処理等により平面鏡4の角部をマーカーの代わりに抽出してもよいが、マーカーを準備して利用したほうが、画像処理の負担が低減できる。ステップS703以降の画像の処理や計算は、画像処理部105で行う。また、画像処理部105、全体制御部100、上位制御部6で分担して処理を行ってもよい。
ステップS703において、画像から4個のマーカー5が検出されなかった場合、グリッパ部13の姿勢を変更する(ステップS704)。たとえば、所定の角度値だけ、図3の矢印Pの方向にアーム部12の関節機構121を回転して、グリッパ部13の姿勢を変更するなどの制御動作を行う。そして、姿勢を変更した後に、再び作業空間をカメラ14により撮影し(ステップS702)、マーカー5の検出処理(ステップS703)を行う。
ステップS702ないしステップS704の処理は、カメラ14の撮影画像から既知の数(例えば4個)のマーカーが検出されるまで繰り返し行われる。ステップS701の段階で、棚2と移動マニプレータ1の位置関係を、全てのマーカーがカメラ14の画角に収まるような適切な位置関係に位置決めしておくことが望ましい。この場合、1回あるいは所定回数の試行でマーカーが検出されるはずである。しかし、所定回数以内にマーカーが検出できない場合は、エラー信号あるいは警告を発する等して、オペレータに知らせることもできる。
図10は、カメラ14の撮影画像から4個のマーカー5が検出された時の作業空間を側面から見た様子を模式的に示した図面である。鏡4がカメラ14の画角内に収まっている。
図11は、図10におけるカメラ14の撮影画像の一例を示した図面である。
ステップS705において、カメラ14の撮影画像(図11)を基にして、平面鏡4の作業空間における姿勢を算出する。算出方法の一例を図12に示す。
図12において、移動マニプレータ1の原点をO、カメラ14の視点をC、平面鏡4の中心点をMとする。また、説明を単純にするため、図12において、平面鏡4は厚みを持たない長方形として図示され、マーカー5の位置は前記長方形の各頂点の位置とする。
図12において、移動マニプレータ1の原点Oを基準とした、カメラ14の視点Cの姿勢(カメラの位置と傾きを示す情報。例えば、カメラのレンズの中心点の位置及びカメラの光軸が向く方向を用いることができる)は、図12には図示されないアーム部12の各関節の角度および関節間を結ぶ腕の長さにより、一意に算出できる。アーム部12の各関節の角度、関節間を結ぶ腕の長さ、等の移動マニプレータ1に関する情報は、予め例えば制御部10のデータ記憶部101に格納しておく。このようにして算出される、移動マニプレータ1の原点Oを基準とした、カメラ14の視点Cの姿勢を示す同次変換行列をとする。図12において、カメラ14の視点Cで撮影した撮影画像(図11)は、撮影画像面Pとして示される。
一方、平面鏡4のマーカー5の相互の位置関係、すなわち平面鏡4の各辺の長さHおよびWは、例えば棚形状データ602の一部として記憶されており、これにより既知である。このとき、マーカー5とカメラ14の視点Cを結ぶ4本の直線と、カメラ14の撮影画像面Pとの交点が、ステップS703により検出されたマーカー5の座標となる。このカメラ14の撮影画像面Pにおけるマーカー5の座標と、鏡4の各辺の長さWとHとから、ホモグラフィ行列を推定することにより、カメラ14の視点Cに対する、平面鏡4の中心点Mの姿勢(鏡の位置と傾きを示す情報。例えば、鏡の中心点の位置及び鏡面が向く方向を用いることができる)を算出できる。算出された、カメラ14の視点Cに対する平面鏡4の中心点Mの姿勢を示す同次変換行列をMとする。
そして、算出された二つの同次変換行列とを積算することにより、移動マニプレータ1の原点Oを基準とした、平面鏡4の中心点の姿勢を示す同次変換行列Mが算出できる。同次変換行列Mが、作業空間(現実の空間)における平面鏡4の姿勢に相当する。
このようにして、カメラ14により撮像された平面鏡4の画像から、作業空間における平面鏡4の姿勢を導出した。このとき、平面鏡4の四隅に配置されたマーカー5により、平面鏡4の作業空間における姿勢を算出すると、正確な姿勢を算出することができる。算出された平面鏡4の姿勢は、制御部10もしくは上位制御部6に記憶される。(ステップS706)。
ステップS707において、再びカメラ14を用いて作業空間を撮影する。ここでは、ステップS702と同じ姿勢とするが、また作業空間を撮影するものであれば、他の姿勢であってもよい。撮影された画像は図9と同様の画像141であるものとする。この画像141に対して、大きく分けて、ステップS708による処理と、ステップ709からステップ721までの処理という、二つの画像処理が並列的または直列的に行われる。
ステップS708では、ステップS707において撮影された画像141から、ピッキング目標である対象物3aを検出し、その姿勢を算出する。対象物3aの検出には、あらかじめ記憶させておいた対象物3の画像(例えば対象物データ603の一部として記憶しておく)とパターンマッチングさせるといった、既知の画像認識アルゴリズムを適用すればよい。また、検出された物体の姿勢の算出は、あらかじめ対象物の大きさを記憶させておき、撮影画像141に映り込んだ大きさと比較したり、ホモグラフィを計算したりすることで算出すればよい。これら画像処理は、例えばカメラ14の視点Cを原点とした座標で計算することができるが、最終的には、移動マニプレータ1の原点Oを基準とした座標に変換し、座標系を統一してもよい。また、この時同時に、他の対象物3bやグリッパ部13の姿勢を併せて算出しておいてもよい。
ステップS709では、カメラ14の視点Cについて、平面鏡4の反射面Mに対して面対象となる点C’を算出する。以下の説明では、視点C’を、カメラ14の鏡像視点C’と称する。
図13はカメラの平面鏡に対する鏡像視点C’を説明した側面図である。図13により理解されるように、カメラ14の視点Cについて、平面鏡4の反射面Mに対して面対象となる点姿勢C’がカメラ14の鏡像視点C’となる。すなわち、カメラ14の姿勢と鏡4の姿勢が既知であれば、カメラ14の鏡像視点C’の姿勢が算出できる。そして、カメラ14が撮像した鏡4に映っている対象物は、カメラ14の鏡像視点C’から見た対象物のイメージに相当する。ここで、鏡4の姿勢はステップ706で記憶してあり、例えば、移動マニプレータ1の原点Oを基準とした座標で表現できる。また、カメラ14の姿勢は、上述のようにデータ記憶部101に格納された、移動マニプレータ1に関するデータから、同じ座標を基準に算出することができる。
ステップS710において、撮影された画像141における平面鏡4の領域、すなわち鏡領域画像の切り出し処理を行う。この鏡領域画像の切り出し処理の一例を、再び図12を参照して、説明する。
まず、移動マニプレータ1の原点Oを基準とした、平面鏡4の姿勢を示す同次変換行列は、ステップS706により記憶されている(ここで、移動マニプレータ1はステップS701以降動かないものとする)。また、移動マニプレータ1の原点Oを基準としたカメラ14の視点Cの姿勢を示す同次変換行列は、アーム部12の各関節の角度および関節間を結ぶ腕の長さにより算出できる。これら同次変換行列により、ステップ710(図13)におけるカメラ14の視点Cを基準とした、平面鏡4の姿勢を示す同次変換行列が算出できる。
ここで、平面鏡4の各辺の長さ、すなわちHおよびWが既知である場合、よりホモグラフィ行列を算出し、カメラ14の撮影平面pにおける平面鏡4の像mを算出できる。カメラ14の撮影平面pにおける平面鏡4の像mが鏡領域画像となる。したがって、撮影画像141から、像mの領域のみを切り出すことで、平面鏡4の鏡領域画像を切り出すことができる。なお、像mの切り出し方法としては、上記に限るものではなく、例えば鏡4の四隅のマーカーを検出し、マーカーで囲まれる矩形の領域を像mとしてもよい。
このようにして切り出される平面鏡4の鏡領域画像は、図13におけるカメラ14の鏡像視点C’からV’で示される視野の画像となる。図13から明らかなように、鏡領域画像には、対象物3bが、対象物3aの陰とならずに撮像される。すなわち、ステップS708で死角となって検出されなかった物体が、鏡領域画像には撮像される。
ステップS711において、ステップS710で切り出した鏡領域画像に対して、ステップS708と同様の画像処理によって、対象物3bを検出する。すなわち、鏡領域画像から、カメラ14の視点Cからは見えない対象物3bを検出し、その姿勢をパターンマッチングや、ホモグラフィ計算により算出する。図13に示すように、鏡領域画像の中の画像は、カメラ14の鏡像視点C’から対象物3bを見たイメージである。
鏡像視点C’を基準とし、これを原点とした座標でステップS708と同様の画像処理を行うと、対象物3bはカメラ14の鏡像視点C’から見た姿勢として算出される。計算結果は、鏡像視点C’を原点とした座標で示すことができる。この時同時に、他の対象物3aやグリッパ部13の姿勢を併せて算出しておいてもよい。また、最終的には、移動マニプレータ1の原点Oを基準とした座標に変換し、座標系を統一してもよい。
ステップS713において、ステップS708において算出された対象物3a等の姿勢情報と、ステップS711において得られた対象物3b等の姿勢情報の統合を行う。これにより、作業空間における対象物3aおよび対象物3bおよび必要に応じてグリッパ13等の相対位置関係を、制御部10が把握することが可能となる。
先に述べたように、各姿勢を移動マニプレータ1の原点Oを基準とした座標に変換し、座標系を統一すれば、作業空間内の物体の位置関係を統一的に把握することができる。また、カメラ14の視点Cと鏡像視点C’の両方から見える特徴点が対象物にある場合、ステレオ的処理により、対象物の3次元的な姿勢を算出することもできる。
そして、統合された各物体の姿勢情報に基づき、グリッパ部13を、対象物3aを把持可能な姿勢まで移動するように制御を行い(ステップS714)、対象物をグリッパ部13で把持する(ステップS715)。
(効果)
以上説明した本実施の形態によれば、移動マニプレータ1は、その作業空間において、ピッキング動作の対象である対象物3aの姿勢に加えて、棚開口部からは対象物3aの陰となって死角に位置する対象物3bの姿勢を検出することが可能である。従って、対象物3bと、グリッパ部13が衝突することなく、対象物3aのみをピッキングすることが可能となる。
また、あらかじめ作業空間内に配置された平面鏡4の姿勢を記憶しておく方法の場合、移動マニプレータ1が棚2に対して僅かでも傾斜して停止してしまうと、ステップS708において検出される、鏡像視点C’から見た対象物3bの姿勢が、移動マニプレータ1の棚2に対する傾斜角の2倍だけ、ずれた姿勢となってしまう。更に、ステップS710における鏡領域も、前記傾斜角だけずれた領域が切り出されてしまう。これらの影響により、対象物3bの姿勢が正しく算出することができない。一方、本実施の形態によれば、マーカー5等により平面鏡4の姿勢を算出するステップS705を設けることにより、移動マニプレータ1が棚2に対して傾斜して停止するといった走行に伴う停止位置のずれによらず、平面鏡4によるカメラ14の鏡像視点C’の算出や鏡領域画像を切り出す処理を精度よく行うことができる。
(変形例)
なお、本実施の形態による移動マニプレータ1のグリッパ部13による対象物3aのピッキングは、図7に示された手順通りに行う必要はなく、発明の範囲を逸脱しない限り適宜変更可能である。図7においては、ステップS705において平面鏡4の姿勢を算出してから、ピッキング動作が完了するまでに、ステップS707において1回だけ作業空間を撮影しているが、これに限る必要はない。
たとえば、グリッパ部13が、対象物3aに十分近づいた状態で、再び撮影するステップ設けてもよい。
図14に示すように、グリッパ部13が、対象物3aに十分近づいた場合、カメラ14からは対象物3aのごく一部しか撮影できない。一方、図14の状態におけるカメラ14の鏡像視点C”からは、対象物3aおよび対象物3bおよび、グリッパ部13の指機構130の3つの物体を撮影することができる。従って、対象物3aと対象物3bの位置関係だけではなく、対象物3aとグリッパ部13の位置関係および、対象物3bとグリッパ部13の位置関係も、鏡領域画像から検出することができる。
この場合、ステップS708を実施せず、ステップS709ないしステップS711を実施するだけで良い。これにより、対象物3aと対象物3bとグリッパ部13のそれぞれの位置関係を把握することができる。
すなわち、本実施の形態にかかる動作手順においては、ステップS705によるマーカー5による平面鏡4の姿勢を算出する手順が、ステップS709ないしステップS711の手順の前に実施されていればよく、ステップS709ないしステップS711の手順の結果によって、グリッパ部13の移動を制御するステップS714が実施されればよい。
また、カメラ14は、グリッパ部13に必ずしも固定される必要はない。その例を図15に示す。
図15に示すようにカメラ14とグリッパ部13との間に更に関節機構131を備え、グリッパ部13に対するカメラ14の角度Tを任意に変更できる構成でもよい。グリッパ部13に対するカメラ14の角度Tが、制御部10により観測可能であれば、図12に示した、移動マニプレータ1の原点Oからの平面鏡4の姿勢を算出が可能である。これにより、ステップS704におけるマーカー5の探索において、アーム部12を制御する必要はなくなる。
また、ステップS703において、平面鏡4の四隅にあるマーカー5を検出すると説明したが、必ずしも4個のマーカー5を検出する必要はない。その例を図16に示す。
図16に示すように、平面鏡4の対角線に異なる形状になるように配置された、2種類のマーカー5およびマーカー51を用いる方法でもよい、この場合、少なくとも3個のマーカーが検出されれば、平面鏡4の姿勢を算出することができる。これにより、ステップS702ないしステップS704に至る繰り返し処理の回数を減らすことができる。
図17に示すように、大きさが既知である所定の正方形から構成されるチェッカーパターンマーカー52を1つだけ用いれば、所定の画像処理により平面鏡4の姿勢を算出することができる。これは、チェッカーパターン内の正方形の各頂点が、マーカー5と同様の役割を果たすためである。
また、本実施の形態では平面鏡4を用いる手順を説明したが、平面鏡以外の形状の鏡を用いることも可能である。
図18に示すように既知の形状の凸面鏡41を用いてもよい。図18における凸面鏡41は、その中央にチェッカーパターンマーカー52が貼付される。凸面境41を用いる場合、図7におけるステップS710において、画像から鏡領域画像を切り出した後に、凸面境41の形状により定まる射影変換を施すことにより、凸面鏡41の鏡領域画像を、平面画像へと変換すればよい。凸面鏡41を用いることで、平面鏡4を用いる場合より、算出するための演算ステップ数が増加するが、より広い空間をカメラ14の鏡視点から観測することが可能である。
なお、これまでの説明では、作業空間に1つだけ平面鏡4が配置される例について説明した。当然ながら、作業空間における平面鏡4は複数配置されてもよい。たとえば、図19に示すように、作業空間にマーカー5が四隅に配置された平面鏡4aの他に、マーカー52が四隅に配置された平面鏡4bと、マーカー53が四隅に配置された平面鏡4cとが、さらに配置される構成でもよい。ここでは、マーカー5とマーカー52とマーカー53とは、それぞれ形状が異なり、所定の画像処理により判別して検出することが構成な可能であればよい。平面鏡4a〜4cについて、図7に示した動作手順がそれぞれ適用できることは言うまでもない。
図19にかかる作業空間においては、平面鏡4a〜4cを複合して用いてもよい。たとえば、平面鏡4aに対して、平面鏡4bを複合して用いる場合、ステップS710で切り出される平面鏡4aの鏡領域画像から更に平面鏡4bの鏡領域画像を切り出すといった再帰的処理により実現すればよい。このように複数の平面鏡による複合的な姿勢算出によって、より死角のない対象物の姿勢検出が可能となる。
実施例1では、マーカー5を四隅に備えた平面鏡4を用いて、移動マニプレータ1のアーム部12およびグリッパ部13を制御する例について説明したが、マーカー5を備えた平面鏡4を全ての作業空間に配置する必要がある。そこで、本実施の形態では、平面鏡4にはマーカー5を配置せず、マーカー5を平面鏡4以外の箇所に配置する例について説明する。
図20は、本実施の形態にかかる棚2の構成を示した図面であり、実施例1における図4と対比される図面である。また、図20は、図4の左方向から棚2を正面から見た構成を模式的に示している。
図20に示される棚2が、図4で示される棚2と異なる点は、棚板21および棚天板22の一部にマーカー5が具備される点である。また、図20に示される棚2の棚天板22の所定の箇所には、平面鏡4が、その反射面を棚板21の方向に向けて、所定の角度で固定される。本実施の形態にかかる平面鏡4が、図5に示される平面鏡4と異なる点は、その四隅にマーカー5が具備されない点である。
また、本実施の形態において、上位制御部6の対象物データ記憶部60に記憶される棚形状データ602には、棚2の形状と共に、棚2の所定の部位を基準とした平面鏡4の姿勢が、それぞれ記憶されている。すなわち、本実施の形態では、棚2とマーカー5と平面鏡4の相対的位置関係が予め知られている。
図21は、本実施の形態にかかる移動マニプレータ1による対象物3のピッキング手順を説明した図面であり、実施例1における図7と対比されるものである。
図21で示される動作手順において、図7で示される動作手順と異なる点は、下記の通りである。
まず、ステップS701によって移動マニプレータ1は棚2の前まで走行した後、ステップS7021において、棚開口部全体をカメラ14により撮影する。これにより、図20に示される棚21および棚22に貼付された4個のマーカー5がカメラ14の撮影画像に映り込んでいるか探索することができる(ステップS7031)。ステップS7031において、マーカー5が4個検出されない場合は、カメラ14の方向を変更し(ステップS704)、再度撮影を行う(ステップS7021)。
次に、カメラ14の撮影画像から検出された4個のマーカー5と、前記棚形状データ602とを用いて、棚2の姿勢を算出する(ステップS7051)。
そして、算出された棚2の姿勢を基準に、前記棚形状データ602から、棚2に固定された平面鏡4の姿勢を算出し(ステップS7052)、その姿勢を制御部10もしくは上位制御部6に記憶する(ステップS706)。
このように、本実施の形態は、平面鏡4の支持物体の形状と、前記支持物体を基準とした平面鏡4の姿勢と、前記支持物体に貼付されたマーカー5の位置とから、前記支持物体の姿勢を算出し、前記支持物体の姿勢から間接的に平面鏡4の姿勢を算出する。
なお、本実施の形態において、平面鏡4およびマーカー5の固定位置は、棚2に限るものではない。
図22は、本実施の形態にかかる、対象物3を格納するトレイ200の模式的な構成を示した斜視図である。トレイ200の前面外側には、二次元コード53が貼付され、トレイ200の背面内側には平面鏡4が固定される。二次元コード53には、そのパターン形状を識別符号として、トレイ200の内容物などの情報が埋め込むことができる。
二次元コード53は、実施例1におけるチェッカーパターンマーカー52と同様に、その大きさが既知であれば、1つの二次元コード53により、画像から姿勢を算出できる。
二次元コード53および平面鏡4の固定姿勢を含むトレイ200の形状データを、対象物データ記憶部60に記憶しておくことで、本実施例にかかる棚2の姿勢から平面鏡4の姿勢を算出する手順と同様にして、トレイ200の前面外側に貼付された二次元コード53から、トレイ200の背面内側に固定された平面鏡4の姿勢を算出できる。そして、算出されたトレイ200の背面内側に固定された平面鏡4の姿勢を用いることで、トレイ200内部にある対象物3を、グリッパ部13にて、トレイ200の壁面と衝突しないように把持可能であることは言うまでもない。
このようにして、本実施の形態のかかる移動マニプレータ1の動作手順においては、マーカー5を平面鏡4以外の場所に貼付可能であり、よりグリッパ部13に固定されたカメラ14に対して撮影しやすい場所に貼付することができる。
上述の実施例では、作業空間に配置される平面鏡4や棚2にマーカー5を配置する例について説明した。実施例3では、移動マニプレータ1の一部にマーカー5を配置する構成について説明する。
図23は、本実施の形態にかかる移動マニプレータ1のグリッパ部13の構成を模式的に示した斜視図である。本実施の形態にかかるグリッパ部13が、実施例1と異なる点は、グリッパ部13の2本の指機構130の中央にチェッカーパターンマーカー52を更に備える点である。
図24は、本実施形態にかかる移動マニプレータ1において、平面鏡4の姿勢を算出するための方法を模式的に示した図面である。図24において、グリッパ部13に固定されたカメラ14の視野Vは、全て平面鏡4に映り込んだ鏡像である。ここで、平面鏡4の鏡像において検出されるチェッカーパターンマーカー52の姿勢が示す点をm1とする。すると、平面鏡4の反射面が存在する平面は、アーム部12の関節角度および関節間の腕の長さから算出されるチェッカーパターンマーカー52の姿勢と、m1との、垂直二等分面として、算出可能である。なお、マーカー52のマニプレータへの取り付け位置の情報は、データとしてデータ記憶部105等に記憶しておく。よって、マーカー52の姿勢は、カメラ14の姿勢と同様、アーム部12の各関節の角度および関節間を結ぶ腕の長さ等のデータにより、一意に算出できる。
図25に本実施の形態における、作業空間の斜視図を示す。本実施の形態においては、平面鏡4の反射面が存在する平面を算出することができるが、平面鏡4の鏡領域の位置までは算出できない。しかしながら、図25に示す棚2のように、作業空間と比して十分大きな平面鏡4を用いることで、作業空間にグリッパ部13がある限り、グリッパ部13に固定されるカメラ14の視野を全て覆うように平面鏡4を配置することができる。このような平面鏡4を配置し、カメラ14の撮影画像を、全て鏡領域画像とみなして制御する。
このようにして、本実施の形態は平面鏡4や棚2にマーカー5を配置することなく、鏡像視点を用いてグリッパ部13の移動を制御することが可能となる。
他の変形例を説明する。この変形例は、基本的に図7、図21で説明した実施例の変形例であり、障害物の姿勢検出処理の他の例である。
図26に図7、図21と異なる部分である、図7、図21のステップS707とS713の間の部分のみを示す。この例では、鏡像視点を算出せず、画像中の鏡領域に写った障害物の鏡像空間内の姿勢から、作業空間内の姿勢を導き出す。
図27に概念図を示す。カメラ14の視点Cから見ると、鏡4には対象物3bが3b’のように映りこんでいる。そこで、図7、図21の実施例と同様に、画像内の鏡領域を切り出し(ステップS710)、ステップS708と同様の画像処理によって、対象物3bの虚像3b’を検出する。すなわち、カメラ14の視点Cからは対象物3bは見えないが、鏡領域画像から虚像3b’を検出し、その姿勢をパターンマッチングや、ホモグラフィ計算により算出する(ステップS711)。図27に示すように、鏡領域画像の中の画像は、カメラ14の視点Cから対象物3bの虚像3b’を見たイメージである。
虚像3b’に対して、対象物3bの姿勢は、虚像3b’の姿勢を鏡に対して鏡像変換することにより得られる(ステップS712)。この時同時に、他の対象物3aやグリッパ部13の姿勢を併せて算出しておいてもよい。また、計算結果は、最終的には、移動マニプレータ1の原点Oを基準とした座標に変換し、座標系を統一してもよい。
以上、本発明の具体的実施形態を詳細に説明したが、これらは開示の発明の明確な理解のために提示された実施の例である。従って、特許請求の範囲から逸脱することなく、上述の実施形態には、さらに各種態様、変形例、および組み合わせが形成できることは言うまでもない。例えば、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の実施例の構成の追加・削除・置換をすることが可能である。本明細書において単数形で表される構成要素は、特段文脈で明らかに示されない限り、複数形を含むものとする。
以上の実施形態では移動台車部11を持つ移動マニプレータ1について説明したが、本発明はこれに限るものではない。たとえば、所定の箇所に固定された直動機構により、アーム部を移動させるような据え付け型マニプレータにも適用できることは言うまでもない。
さまざまな移動マニプレータの制御に利用することが可能となる。
1 移動マニプレータ
10 制御部
11 移動台車部
110 車輪
12 アーム部
121、122 関節機構
13 グリッパ部
131 指機構
14 カメラ
2 棚
20 支柱
21 棚板
22 棚天板
200 トレイ
3、3a、3b 対象物
4 平面鏡
41 凸面鏡
5、51 マーカー
52 チェッカーパターンマーカー
53 二次元コード
6 上位制御部
60 対象物データ記憶部

Claims (15)

  1. 移動可能なマニプレータを、対象物が配置された作業空間で動作させるマニプレータの制御方法であって、
    前記作業空間またはその近傍に配置された鏡を前記マニプレータに搭載されたカメラで撮像し、
    前記カメラの姿勢および前記カメラによる撮像画像に基づいて前記鏡の姿勢を検出し、
    前記カメラによる撮像画像から前記鏡の領域を検出し、
    前記検出された鏡の領域から、前記対象物の少なくとも一部の像を検出し、
    前記鏡の姿勢および前記対象物の像に基づいて、前記作業空間における前記対象物の姿勢を算出し、
    該算出された前記対象物の姿勢の情報に基づいて、前記マニプレータを操作するマニプレータの制御方法。
  2. 前記鏡の姿勢および前記対象物の像に基づいて、前記作業空間における前記対象物の姿勢を算出する際に、
    前記カメラの姿勢と前記鏡の姿勢に基づいて、前記カメラの鏡像視点を算出し、
    前記カメラの鏡像視点と前記対象物の像に基づいて、前記作業空間における前記対象物の姿勢を算出する、請求項1記載のマニプレータの制御方法。
  3. 前記鏡の姿勢および前記対象物の像に基づいて、前記作業空間における前記対象物の姿勢を算出する際に、
    前記カメラの姿勢と前記対象物の像に基づいて、鏡像空間における前記対象物の虚像の姿勢を算出し、
    前記対象物の虚像の姿勢と前記鏡の姿勢に基づいて、前記作業空間における前記対象物の姿勢を算出する、請求項1記載のマニプレータの制御方法。
  4. 前記対象物は棚に載置され、
    前記棚の配置情報に基づいて、前記マニプレータを所定の棚の近傍に移動し、
    前記マニプレータに固定された原点を基準として、前記カメラ、前記鏡、および前記対象物の姿勢を算出する請求項1記載のマニプレータの制御方法。
  5. 前記検出された鏡の領域から、前記マニプレータの少なくとも一部の像を検出し、
    前記鏡の姿勢および前記前記マニプレータの少なくとも一部の像に基づいて、前記作業空間における前記前記マニプレータの少なくとも一部の姿勢を算出し、
    該算出された前記マニプレータの少なくとも一部の姿勢の情報にさらに基づいて、前記マニプレータを操作する請求項1記載のマニプレータの制御方法。
  6. 前記検出された鏡以外の領域から、前記対象物の少なくとも一部を検出し、
    前記対象物の少なくとも一部の像に基づいて、前記作業空間における前記対象物の姿勢を算出し、
    該算出された前記対象物の姿勢の情報にさらに基づいて、前記マニプレータを操作する請求項1記載のマニプレータの制御方法。
  7. 前記検出された鏡以外の領域から、前記マニプレータの少なくとも一部を検出し、
    前記マニプレータの少なくとも一部の像に基づいて、前記作業空間における前記マニプレータの少なくとも一部の姿勢を算出し、
    該算出された前記マニプレータの少なくとも一部の姿勢の情報にさらに基づいて、前記マニプレータを操作する請求項1記載のマニプレータの制御方法。
  8. 前記鏡または作業空間内にマーカーを配置し、
    前記カメラによる撮像画像における前記マーカーの情報に基づいて、前記鏡の姿勢を検出する請求項1記載のマニプレータの制御方法。
  9. 移動可能なマニプレータを、対象物が配置された作業空間で動作させるマニプレータの制御システムであって、
    前記マニプレータは、前記マニプレータを移動させる移動機構と、前記対象物を操作する操作機構と、前記作業空間を撮像するためのカメラと、前記カメラの姿勢を変化させるカメラ制御機構と、制御部を有し、
    前記制御部は、
    前記カメラの姿勢を検出する機能と、
    前記カメラの姿勢および前記カメラによる撮像画像に基づいて、該撮像画像内の鏡の姿勢を検出する機能と、
    前記カメラによる撮像画像から前記鏡の領域を検出し、前記検出された鏡の領域から、前記対象物の少なくとも一部の像を検出する機能と、
    前記鏡の姿勢および前記対象物の像に基づいて、前記作業空間における前記対象物の姿勢を算出する機能と、を有し、
    該算出された前記対象物の姿勢の情報に基づいて、前記操作機構を操作するマニプレータの制御システム。
  10. 前記操作機構は、少なくとも一つの関節機構で連結されたアーム部と、該アーム部に保持され、前記対象物を把握および移動可能なグリッパ部を有し、
    前記カメラは、前記グリッパ部に配置され、
    前記制御部は、前記操作機構の動作を制御するとともに、前記操作機構の形状の幾何学的データを記憶しており、該幾何学的データを用いて前記カメラの姿勢を検出する、請求項9記載のマニプレータの制御システム。
  11. 前記対象物が配置された作業空間は、前記対象物が配置された棚を基準として定義される空間であり、
    前記棚に前記鏡が配置されている、請求項9記載のマニプレータの制御システム。
  12. 前記マニプレータは、複数の前記棚のうち任意の棚の近傍に移動可能な構成であり、
    前記制御部は、前記複数の棚の配置に関する棚配置情報と、各棚に配置された対象物に関する対象物情報を記憶しており、
    前記制御部は、前記棚配置情報と前記対象物情報に基づいて、前記マニプレータを所定の棚の近傍に移動させ、前記カメラで前記作業空間を撮像する、請求項11記載のマニプレータの制御システム。
  13. 前記作業空間にはマーカーが配置されており、前記マーカーと前記鏡との相対的位置関係は前記制御部に記憶されており、前記カメラによる撮像画像中の前記マーカーに基づいて該撮像画像内の鏡の姿勢を検出する、請求項12記載のマニプレータの制御システム。
  14. 対象物が配置された作業空間で動作させるマニプレータであって、
    前記マニプレータを移動させる移動機構と、
    前記対象物を操作するグリッパ部と、
    前記グリッパ部を移動させるアーム部と、
    前記作業空間を撮像するためのカメラと、
    前記カメラの姿勢を変化させるカメラ制御機構と、
    制御部を有し、
    前記制御部は、
    前記カメラの姿勢を検出する機能と、
    前記カメラの姿勢および前記カメラによる撮像画像に基づいて該撮像画像内の鏡の姿勢を検出する機能と、
    前記カメラによる撮像画像から前記対象物の少なくとも一部の像を検出する機能と、
    前記鏡の姿勢および前記対象物の像に基づいて、前記作業空間における前記対象物の姿勢を算出する機能と、
    該算出された前記対象物の姿勢の情報に基づいて、前記グリッパ部を操作するマニプレータ。
  15. 前記グリッパ部に配置されたマーカーを有し、
    前記鏡の姿勢を検出する機能において、
    前記マーカーの姿勢に関する情報と、前記カメラによる撮像画像中の前記マーカーの像を用いて、該撮像画像内の鏡の姿勢を検出する、請求項14記載のマニプレータ。
JP2016569144A 2015-01-13 2015-01-13 マニプレータ制御方法、システム、およびマニプレータ Expired - Fee Related JP6328796B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/050616 WO2016113836A1 (ja) 2015-01-13 2015-01-13 マニプレータ制御方法、システム、およびマニプレータ

Publications (2)

Publication Number Publication Date
JPWO2016113836A1 true JPWO2016113836A1 (ja) 2017-06-22
JP6328796B2 JP6328796B2 (ja) 2018-05-23

Family

ID=56405404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016569144A Expired - Fee Related JP6328796B2 (ja) 2015-01-13 2015-01-13 マニプレータ制御方法、システム、およびマニプレータ

Country Status (2)

Country Link
JP (1) JP6328796B2 (ja)
WO (1) WO2016113836A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6734728B2 (ja) * 2016-08-05 2020-08-05 株式会社日立製作所 ロボットシステム及びピッキング方法
JP6923688B2 (ja) * 2017-11-28 2021-08-25 ファナック株式会社 ロボットおよびロボットシステム
JP6669713B2 (ja) 2017-11-28 2020-03-18 ファナック株式会社 ロボットおよびロボットシステム
JP2020192648A (ja) * 2019-05-29 2020-12-03 株式会社日立製作所 エンドエフェクタ及びピッキングシステム
EP4368351A1 (en) * 2021-07-07 2024-05-15 Mitsubishi Electric Corporation Remote operation system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313744A (ja) * 1992-05-06 1993-11-26 Toshiba Corp 位置姿勢測定用標識
JP2004338889A (ja) * 2003-05-16 2004-12-02 Hitachi Ltd 映像認識装置
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
JP2014188617A (ja) * 2013-03-27 2014-10-06 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2015042965A (ja) * 2013-08-26 2015-03-05 株式会社ダイフク 物品位置認識装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313744A (ja) * 1992-05-06 1993-11-26 Toshiba Corp 位置姿勢測定用標識
JP2004338889A (ja) * 2003-05-16 2004-12-02 Hitachi Ltd 映像認識装置
WO2006006624A1 (ja) * 2004-07-13 2006-01-19 Matsushita Electric Industrial Co., Ltd. 物品保持システム、ロボット及びロボット制御方法
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
JP2014188617A (ja) * 2013-03-27 2014-10-06 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2015042965A (ja) * 2013-08-26 2015-03-05 株式会社ダイフク 物品位置認識装置

Also Published As

Publication number Publication date
JP6328796B2 (ja) 2018-05-23
WO2016113836A1 (ja) 2016-07-21

Similar Documents

Publication Publication Date Title
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6811258B2 (ja) ロボット車両の位置測定
JP6328796B2 (ja) マニプレータ制御方法、システム、およびマニプレータ
CN110640730B (zh) 生成用于机器人场景的三维模型的方法和系统
JP6211734B1 (ja) ステレオ処理及び構造化光処理の組み合わせ
JP6359756B2 (ja) マニプレータ、マニプレータの動作計画方法、および、マニプレータの制御システム
US9616568B1 (en) Generating a grasp affordance for an object based on a thermal image of the object that is captured following human manipulation of the object
CN108177162B (zh) 移动机器人的干扰区域设定装置
JP2021504794A (ja) ロボット充電器ドッキング自己位置推定
JP2021504793A (ja) ロボット充電器ドッキング制御
KR20220012921A (ko) 3차원 라이다를 갖는 로봇 구성
JP2016099257A (ja) 情報処理装置及び情報処理方法
JP6950638B2 (ja) マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム
JP2007216350A (ja) 移動型ロボット
JP2016000442A (ja) ロボット、ロボットシステム及び制御装置
JP6855491B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
KR20190003643A (ko) 네거티브 매핑을 이용한 국부화
JP2008023630A (ja) アームを誘導可能な移動体およびアームを誘導する方法
US20210192784A1 (en) Vision system for a robotic machine
JP2020163502A (ja) 物体検出方法、物体検出装置およびロボットシステム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
KR100906991B1 (ko) 로봇의 비시인성 장애물 탐지방법
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180418

R150 Certificate of patent or registration of utility model

Ref document number: 6328796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees