JP2018089728A - ロボットの干渉領域を自動で設定するロボット制御装置 - Google Patents

ロボットの干渉領域を自動で設定するロボット制御装置 Download PDF

Info

Publication number
JP2018089728A
JP2018089728A JP2016234240A JP2016234240A JP2018089728A JP 2018089728 A JP2018089728 A JP 2018089728A JP 2016234240 A JP2016234240 A JP 2016234240A JP 2016234240 A JP2016234240 A JP 2016234240A JP 2018089728 A JP2018089728 A JP 2018089728A
Authority
JP
Japan
Prior art keywords
robot
depth
depth map
map information
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016234240A
Other languages
English (en)
Other versions
JP6420296B2 (ja
Inventor
友則 松嶋
Tomonori Matsushima
友則 松嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2016234240A priority Critical patent/JP6420296B2/ja
Priority to DE102017127950.4A priority patent/DE102017127950B4/de
Priority to US15/825,437 priority patent/US10481571B2/en
Priority to CN201711237050.1A priority patent/CN108127661B/zh
Publication of JP2018089728A publication Critical patent/JP2018089728A/ja
Application granted granted Critical
Publication of JP6420296B2 publication Critical patent/JP6420296B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40179Design of controller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

【課題】ロボットと周辺機器などの障害物とが干渉しないための該ロボットの動作範囲を自動で設定できるようにする。
【解決手段】ロボット制御装置10は、ロボット11の所定の部分からロボット11の周辺に存る物体20の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部13と、所定の部分の3次元位置情報を取得するロボット位置取得部14と、上記の深度データ群と3次元位置情報とを用いて、ロボット11の設置位置を原点とする上記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部15と、深度マップ情報から物体20が占める範囲を推定し、この範囲をロボット11の干渉領域とする干渉領域設定部16と、を備える。
【選択図】図1

Description

本発明は、ロボットが干渉する可能性のある領域(以下、干渉領域と称す)を設定する機能を備えたロボット制御装置に関する。
生産現場において、ロボットを用いて、加工素材を工作機械に供給したり、加工後の完成品を工作機械から取出したりする場合には、ロボットを工作機械の近くに設置し、さらにロボットの周囲に安全柵を設置している。この場合、ユーザは、ロボット制御装置に接続された教示操作盤などを使って実際にロボットを操作して、ロボットのアーム部やハンド部などが安全柵から出ないような作業動作をロボットに教示している。ユーザは、このような教示作業や、オフラインプログラミングによりロボットの動作プログラムを作成してロボット制御装置に記憶している。
しかしながら、ロボット自体は、ロボットの周辺に置かれた構造物の情報、すなわち、安全柵や、ベルトコンベアなどの周辺機器がロボットの周辺に存在することを認識できない。そのため、ユーザの教示作業中あるいはロボットの動作プログラムの実行中に、ユーザの操作ミスやプログラムミスによりロボットが周辺機器などと干渉し、周辺機器やロボットが破損してしまうことがある。この結果、破損した周辺機器やロボットが復旧するまで生産が停止するため、生産性が著しく低下する。
そこで、ロボットが動作できる範囲(以下、動作範囲と呼ぶ。)をロボット制御装置に事前に設定しておき、設定された動作領域をロボットが逸脱する場合には該ロボットを停止させて、ロボットと周辺機器との干渉を未然に防ぐことが行われている。この種の方法(以下、背景技術1と呼ぶ。)は特許文献1などに開示される。
また、障害物を検知するセンサをロボットに装着しておき、ロボットが動作プログラムを実行している時に上記センサが障害物を検知した場合、障害物が排除されるまでロボットを停止させるといった方法も行われている。この種の方法(以下、背景技術2と呼ぶ。)は特許文献2などに開示される。
特開2013−136123号公報 特開2003−136466号公報
しかし、背景技術1においては、周辺機器の位置情報に応じてロボットの動作範囲をユーザがロボット制御装置に事前に入力する必要がある。この場合、一般的にユーザによってロボットからの位置を測定してロボット制御装置に記憶させることになるため、手間がかかる。また、ロボットの動作範囲を設定する際には、安全のためにマージンなどを多めにとる傾向がある。そのため、見たところロボットは障害物から未だ遠くに位置しているのにも関わらず、前述のマージンの影響によりロボットが停止してしまうという問題が発生する。特に、加工素材を工作機械に供給したり、加工後の完成品を工作機械から取出したりするのをロボットにより行う場合には、周辺機器が密に配置されることが多いため、上記の問題が顕著になりやすい。
さらに、ユーザが周辺機器の配置を変更したときは、それに応じてロボットの動作範囲を改めて設定する必要があるので、手間がかかりやすい。
これに対し、背景技術2においては、ロボットの動作範囲をロボット制御装置に事前に入力する必要がないので、前述のような問題点を生じない。しかし、背景技術2の場合は、障害物を検知するセンサをロボットごとに装着しておく必要があるので、費用が膨大になってしまう。
そこで本発明は、上述のような実状に鑑み、ロボットと周辺機器などの障害物とが干渉しないための該ロボットの動作範囲を自動で設定できるロボット制御装置を提供することを目的とする。
本発明の一態様によれば、ロボットの動作を制御するロボット制御装置であって、
ロボットの所定の部分から該ロボットの周辺に存在する物体の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部と、
所定の部分の3次元位置情報を取得するロボット位置取得部と、
深度データ群と所定の部分の3次元位置情報とを用いて、ロボットの設置位置を原点とする前記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部と、
深度マップ情報から物体が占める範囲を推定し、該範囲をロボットの干渉領域として設定する干渉領域設定部と、
を備えた、ロボット制御装置が提供される。
上記の一態様によれば、ロボットと周辺機器などの障害物とが干渉しないための該ロボットの動作範囲を自動で設定することができる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
一実施形態のロボット制御装置の機能を説明するための機能ブロック図である。 一実施形態による干渉領域設定フローの模式図である。 別の実施形態による干渉領域設定フローの模式図である。
次に、本発明の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
図1は、一実施形態のロボット制御装置の機能を説明するための機能ブロック図である。本実施形態のロボット制御装置10は、ロボット11の動作を制御する装置であって、深度取得部13と、ロボット位置取得部14と、深度マップ生成部15と、干渉領域設定部16とを備える。
ロボット11の一例は、例えば垂直多関節ロボット、移動機構ロボット、パラレルリンクロボット、直動機構ロボットなど任意のタイプのロボットを含む。
深度取得部13は、ロボット11における所定の部分から該ロボット11の周辺に存在する物体(不図示)の表面上の任意の複数点までの深度(即ち、奥行き)を示す深度データ群を取得するようになされている。ここでいう物体は、ロボット11の周辺に置かれた構造物、例えば、ベルトコンベアなどの周辺機器や、安全柵などである。
前述した深度データ群は、ロボット11の周辺に在る物体の表面に対してマトリクス状に定義される複数点のそれぞれについての深度データの集合であり、このような深度データ群は、深度を測定する公知の深度センサを用いて取得されうる。
このような深度センサ12は、ロボット11の干渉領域を設定するときのみ、前述したロボット11における所定の部分に取付けられるのが好ましい。この所定の部分は、ロボット11の先端部、例えばロボットアーム部の先端におけるツールや把持ハンドなどを着脱可能な手首フランジ部でありうる。
ロボット位置取得部14は、前述したロボット11の所定の部分の3次元位置情報を取得するようになされている。この3次元位置情報は、ロボット11が置かれた実空間におけるロボット11の所定の部分の3次元位置に関する情報である。
例えば、ロボット11が多関節ロボットの場合、多関節ロボットの各関節部は、サーボモータ(不図示)により駆動されてロボットアーム部を回転させる駆動軸を備えている。ロボット位置取得部14は、それら駆動軸に配置されたパルスコーダなどの位置検出器からロボット11の各駆動軸の回転位置(角度)を読取り、これら回転角度と各ロボットアーム部の既知の設定寸法とから、ロボットアーム部の先端部の位置を取得できる。
ここで取得されるロボット11の所定の部分の位置情報、例えばロボットアーム先端部の位置情報は、ロボット11の設置位置を原点とする座標系(以下、ロボット座標系と呼ぶ。)で定義される3次元位置情報である。上記の設置位置は、例えばロボット11を工場に設置する場合、工場の床面におけるロボット11が固定された部分の位置である。
深度マップ生成部15は、前述のような深度データ群とロボット11の3次元位置情報とを用いて深度マップ情報を生成するようになされている。この深度マップ情報は、前述した物体の表面に対してマトリクス状に定義される複数点の3次元位置情報からなる。これら3次元位置情報は、深度センサ12により取得された物体の表面上の各点の深度データを、ロボット11の設置位置を原点とする3次元位置に変換したものである。つまり、深度センサ12を原点とする座標系(以下、センサ座標系と呼ぶ。)で定義された物体の表面上の各点の深度データが、座標変換によって、ロボット座標系で定義される3次元位置情報に変換されている。
干渉領域設定部16は、前述の深度マップ情報を受取り、この深度マップ情報から、ロボット11の周辺の物体が占める範囲を検索し、この範囲をロボット11の干渉領域として設定するようになされている。干渉領域設定部16は、検索された範囲以外の領域をロボット11の動作許可領域として設定するようにしてもよい。
さらに、本実施形態のロボット制御装置10は、記憶部17や指令部18などをさらに備えているのが好ましい。
記憶部17には、前述のように設定された干渉領域や、ロボット11の動作プログラムや、深度センサ12のロボット11への取付位置に関する情報(以下、センサ取付位置情報と称す)などが記憶される。
指令部18は、ロボット11の干渉領域の設定を開始する指令を深度取得部13やロボット11に出力することができる。さらに、指令部18は、設定された干渉領域を考慮しつつ、ロボット11の動作プログラムに基づく動作指令をロボット11に送出するようになされている。
例えばロボット11が多関節ロボットの場合、ロボット制御装置10は、多関節ロボットの各軸を駆動するサーボモータ(不図示)をフィードバック制御することにより多関節ロボットのアーム部を動作させるようになっている。
指令部18は、予め作成された動作プログラムに従ってロボット11を動作させる指令を生成してサーボモータに出力する。あるいは、指令部18は、ロボット制御装置に接続された教示操作盤からの動作指令をサーボモータに出力する。このとき、設定された干渉領域にロボット11が侵入しそうな位置指令値が出力されたならば、指令部18はサーボモータを停止または減速する指令を出力する。
なお、上述したロボット制御装置10は、バスを介して互いに接続された、記憶部、CPU(control processing unit)、および通信部などを備えたコンピュータシステムを用いて構成されうる。該記憶部は、ROM(read only memory)やRAM(random access memory)などである、また、上述のロボット制御装置10が有する深度取得部13、ロボット位置取得部14、深度マップ生成部15、干渉領域設定部16、等の機能や動作は、ROMに記憶されたプログラムがCPUにより実行されることよって達成されうる。
図2は、上述したロボット制御装置10による干渉領域設定フローの一実施例を模式的に示した図である。但し、ロボット11の干渉領域の設定を開始するにあたって、前述したロボット11の先端部に深度センサ12が取付けられているものとする。
干渉領域の設定を開始させると、まず、ステップS11において、深度取得部13が、ロボット11の周辺に存在する物体の表面上の複数点に関する深度データ群を深度センサ12によって取得する。
深度データ群は、上記の物体の表面に対してマトリクス状に定義された複数点のそれぞれについての深度データの集合であり、例えば、図2に示されるような画像(所謂、深度画像)31として取得されうる。深度画像31のZ方向(図面に直交する方向)が深度を指しており、深度画像31を構成する複数点が深度の深浅に応じて濃淡を変えて表示される。但し、図2においては、理解を容易にする為、白、黒、ドットパターン、斜線などが描かれた丸を用いて、深度画像31を構成する複数点を模式的に示している。例えば、白丸の方が黒丸よりも深度は浅い。
さらに、上記ステップS11において、ロボット位置取得部14が、ロボット11の位置情報を取得する。ここで取得されるロボット11の位置情報は、深度センサ12が取付けられたロボット11の先端部の位置情報である。この先端部の位置情報は、ロボット11を停止させた状態で取得される。
次のステップS12においては、深度マップ生成部15が、前述のように取得された深度データ群とロボット11の位置情報とを用いて深度マップ情報を生成する。具体的には、深度マップ生成部15は、センサ座標系で定義された物体の表面上の各点の深度データを、座標変換によって、ロボット座標系で定義される3次元位置情報に変換することにより、深度マップ情報を生成する。深度マップ情報は、前述の深度データ群と同じように、深度画像として取得されるのが好ましい。図2に示される深度画像32もまた、理解を容易にする為、深度画像32を構成する複数点を模式的に示している。例えば、白丸の方が黒丸よりも深度は浅い。
なお、前述のように深度マップ情報を生成する際には、ロボット11の先端部における深度センサ12の取付位置や深度センサ12の設計寸法などに関する情報(以下、センサ取付位置情報と呼ぶ。)を考慮することが好ましい。所定の外形形状を有する深度センサ12をロボット11の先端部の外側に取付ける場合には、深度センサ12が深度を測定するときの基準点が、上記ステップS11において取得されるロボット11の先端部の位置と一致しないことがある。このため、センサ取付位置情報から、深度センサ12の測定基準点とロボット11の先端部の位置との相関位置を求めておき、この相関位置も前述の深度データ群及びロボット11の位置情報とともに考慮して、深度マップ情報を生成するのが好ましい。センサ取付位置情報は既知の値であるため、事前にロボット制御装置10の記憶部17に記憶しておくことができる。深度マップ生成部15は、深度マップ情報を生成するときに記憶部17から読みだして使用するのが好ましい。
続いて、ステップS13において、干渉領域設定部16が、前述の深度マップ情報に基づき、ロボット11の干渉領域を設定する。このとき、前述の深度マップ情報から、ロボット11の周辺に存在する物体が占める範囲を検索し、この範囲が、ロボット11の干渉領域として設定される。
このステップS13においては、前述の深度マップ情報から、ロボット11の周辺に存在する物体の形状を推定し、この形状を簡略化された形に変換し、簡略化された形が占める範囲をロボット11の干渉領域として設定するのが好ましい。例えば、図2に示されるような円筒形の干渉領域33が設定される。勿論、干渉領域33の形状は円筒形に限られない。
以上の処理フローにより干渉領域の設定が終了する。設定された干渉領域の情報はロボット制御装置10内の記憶部17に記憶される。記憶された干渉領域情報は、ロボット11の動作プログラム実行時や教示作業時においてロボット11の動作範囲を規制するのに利用されることになる。
以上に説明したような一実施形態のロボット制御装置10によれば、次のような効果が得られる。
ロボット11の所定の部分、例えば手首フランジ部といったロボットアームの先端部に深度センサ12を取付け、深度センサ12から、ロボット11の周辺に存在する物体20の表面までの深度データ群を取得することができる。さらに、深度センサ12が取付けられたロボット11の所定の部分の3次元位置情報を基に、深度センサ12により取得された深度データ群を、ロボット11の設置位置を原点とする3次元位置情報に変換することにより、深度マップ情報を生成することができる。このような深度マップ情報に基づき、ロボット11の干渉領域を設定することができる。つまり、ロボット11と周辺機器などの障害物とが干渉しないための該ロボット11の動作範囲を自動で設定することができる。
さらに、生成される深度マップ情報はロボット11から見た周辺機器などの実際の物体の形に沿った三次元情報であるため、このような深度マップ情報から設定される干渉領域の形はユーザが想定しやすい形になる。この結果、ロボットの教示操作がより容易になる。
さらに、周辺機器の位置が変わった場合には、再度、干渉領域設定フローを記述したプログラムを実行すれば、干渉領域の再設定が済むため、ユーザの作業削減につながる。
干渉範囲の再設定のときのみ深度センサ12を利用すればよいため、深度センサ12は一つ有ればよい。深度センサ12を使いまわすことができるので、コストの削減につながる。
(他の実施形態)
上述した一実施形態のロボット制御装置10による干渉領域設定フローは、ロボット11を任意の一姿勢で停止させて行われている。しかしながら、ロボット11と干渉する可能性のある物体がロボット11の周辺に広範囲に存在する場合には、一回の干渉領域設定フローのみによって、そのような物体が占める範囲を干渉領域として設定するのは難しい。また、ロボット11の周辺に在る物体の形状が複雑な形の集合である場合においても、一回の干渉領域設定フローのみで干渉領域を定めるのは難しい。このような場合、上述した干渉領域設定フローは複数回行われるのが好ましい。
図3は、そのような複数回の干渉領域設定フローを実施する例を模式的に示した図である。
まず、ロボット制御装置10はロボット11を、図3に実線で示されるようなロボット姿勢(以下、第一姿勢と呼ぶ。)にして停止させる。次いで、ロボット制御装置10は、第一姿勢をとったロボット11の先端部に装着されている深度センサ12によって、この深度センサ12から物体20の表面上の複数点までの深度データ群、例えば深度画像31Aを取得する。さらに、ロボット制御装置10は、深度画像31Aの情報と、第一姿勢でのロボット11の先端部の位置情報と、センサ取付位置情報とを用いて、第一姿勢での深度マップ情報、例えば深度画像32Aを生成する。
第一姿勢での深度マップ情報を生成した後、ロボット制御装置10はロボット11を、図3に二点鎖線で示されるようなロボット姿勢(以下、第二姿勢と呼ぶ。)にして停止させる。次いで、ロボット制御装置10は、第二姿勢をとったロボット11の先端部に装着されている深度センサ12によって、この深度センサ12から物体20の表面上の複数点までの深度データ群、例えば深度画像31Bを取得する。さらに、ロボット制御装置10は、深度画像31Bの情報と、第二姿勢でのロボット11の先端部の位置情報と、センサ取付位置情報とを用いて、第二姿勢での深度マップ情報、例えば深度画像32Bを生成する。
さらに、深度マップ生成部15は、ロボット11の姿勢ごとに生成された深度画像32A、32Bの情報を重ねあわせて、広範囲に存在する物体20の全てが含まれる深度画像34を生成する。勿論、ロボット11の姿勢の変更回数は2回に限られない。その後、干渉領域設定部16は、生成された深度画像34から、ロボット11の干渉領域となる範囲を設定する。
以上の事により、広範囲に存在する物体が占める範囲を干渉領域として設定することができる。特に、物体20の周囲に複数の深度センサを設置する必要がなく、一つの深度センサ12をロボット11に取付け、ロボット11の姿勢を変え、各姿勢ごとに生成された深度マップ情報を一つの深度マップ情報に統合することにより、障害物の場所を設定することができる。
以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
また、本発明の目的を達成するために、以下のような発明の態様とその効果を提供することができる。
例えば、本発明の第一態様として、ロボット11の動作を制御するロボット制御装置10であって、ロボット11の所定の部分からロボット11の周辺に存在する物体20の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部13と、ロボット11の所定の部分の3次元位置情報を取得するロボット位置取得部14と、上記の深度データ群と上記所定の部分の3次元位置情報とを用いて、ロボット11の設置位置を原点とする上記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部15と、その深度マップ情報から物体20が占める範囲を推定し、この範囲をロボット11の干渉領域として設定する干渉領域設定部16とを備えた、ロボット制御装置10が提供される。
上記第一態様によれば、ロボットと周辺機器などの障害物とが干渉しないための該ロボットの動作範囲を自動で設定することができる。
第二態様としては、上記第一態様のロボット制御装置10であって、干渉領域設定部16は、深度マップ情報から物体20の形状を推定し、該形状を簡略化された形に変換し、該簡略化された形が占める範囲をロボット11の干渉領域として設定するようになされた、ロボット制御装置10が提供される。
上記第二態様によれば、ロボット11の干渉領域として設定される物体20の形を、簡略化された形に変換しているため、記憶部に記憶させるデータ量を削減できる。さらに、干渉領域を基にロボット11を動作させるときの処理速度を向上させ、ノイズも低減させることができる。
第三態様としては、上記第一態様又は第二態様のロボット制御装置10であって、ロボット11の前記所定の部分に着脱可能に取付けられていて前記深度を測定する深度センサ12を備えた、ロボット制御装置10が提供される。
上記第三態様によれば、ロボット11の干渉領域の設定時にのみ深度センサ12をロボット11に取付けて、干渉領域の設定フローを実行することができる。
第四態様としては、上記第三態様のロボット制御装置10であって、ロボット制御装置10は、深度センサ12が取付けられたロボット11の姿勢を変更するようにロボット11を動作させる度に前記深度マップ情報を生成するようになされ、干渉領域設定部16は、ロボット11の姿勢ごとに生成された前記深度マップ情報から、ロボット11の干渉領域となる範囲を設定するようになされた、ロボット制御装置10が提供される。
上記の第四態様によれば、広範囲に存在する物体20が占める範囲をロボット11の干渉領域として設定することができる。
10 ロボット制御装置
11 ロボット
12 深度センサ
13 深度取得部
14 ロボット位置取得部
15 深度マップ生成部
16 干渉領域設定部
17 記憶部
18 指令部
20 物体
33 干渉領域
31、31A、32A、31B、32B、34 深度画像

Claims (4)

  1. ロボットの動作を制御するロボット制御装置であって、
    前記ロボットの所定の部分から前記ロボットの周辺に存在する物体の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部と、
    前記所定の部分の3次元位置情報を取得するロボット位置取得部と、
    前記深度データ群と前記所定の部分の前記3次元位置情報とを用いて、前記ロボットの設置位置を原点とする前記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部と、
    前記深度マップ情報から前記物体が占める範囲を推定し、該範囲を前記ロボットの干渉領域として設定する干渉領域設定部と、
    を備えたロボット制御装置。
  2. 前記干渉領域設定部は、前記深度マップ情報から前記物体の形状を推定し、該形状を簡略化された形に変換し、該簡略化された形が占める範囲を前記ロボットの干渉領域として設定するようになされた、請求項1に記載のロボット制御装置。
  3. 前記所定の部分に着脱可能に取付けられていて、前記深度を測定する深度センサを備えた、請求項1又は2に記載のロボット制御装置。
  4. 前記ロボット制御装置は、前記深度センサが取付けられた前記ロボットの姿勢を変更するように前記ロボットを動作させる度に前記深度マップ情報を生成するようになされており、
    前記干渉領域設定部は、前記ロボットの姿勢ごとに生成された前記深度マップ情報から、前記干渉領域となる範囲を設定するようになされた、請求項3に記載のロボット制御装置。
JP2016234240A 2016-12-01 2016-12-01 ロボットの干渉領域を自動で設定するロボット制御装置 Active JP6420296B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016234240A JP6420296B2 (ja) 2016-12-01 2016-12-01 ロボットの干渉領域を自動で設定するロボット制御装置
DE102017127950.4A DE102017127950B4 (de) 2016-12-01 2017-11-27 Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt
US15/825,437 US10481571B2 (en) 2016-12-01 2017-11-29 Robot controller which automatically sets interference region for robot
CN201711237050.1A CN108127661B (zh) 2016-12-01 2017-11-30 机器人控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016234240A JP6420296B2 (ja) 2016-12-01 2016-12-01 ロボットの干渉領域を自動で設定するロボット制御装置

Publications (2)

Publication Number Publication Date
JP2018089728A true JP2018089728A (ja) 2018-06-14
JP6420296B2 JP6420296B2 (ja) 2018-11-07

Family

ID=62164106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016234240A Active JP6420296B2 (ja) 2016-12-01 2016-12-01 ロボットの干渉領域を自動で設定するロボット制御装置

Country Status (4)

Country Link
US (1) US10481571B2 (ja)
JP (1) JP6420296B2 (ja)
CN (1) CN108127661B (ja)
DE (1) DE102017127950B4 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080036A1 (ja) 2020-10-16 2022-04-21 オムロン株式会社 制御装置、ロボット、制御方法、プログラム
WO2022091578A1 (ja) 2020-10-26 2022-05-05 オムロン株式会社 制御装置、ロボット、制御方法、プログラム
WO2022123850A1 (ja) 2020-12-09 2022-06-16 オムロン株式会社 制御装置、制御方法、プログラム
WO2024004746A1 (ja) * 2022-07-01 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 システム及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018176386A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2021142635A (ja) * 2020-03-13 2021-09-24 オムロン株式会社 干渉判定装置、方法、及びプログラム
US20230196495A1 (en) * 2021-12-22 2023-06-22 Datalogic Ip Tech S.R.L. System and method for verifying positional and spatial information using depth sensors
US11717974B1 (en) * 2022-06-10 2023-08-08 Sanctuary Cognitive Systems Corporation Haptic photogrammetry in robots and methods for operating the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
JP2013186088A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
JP2014021810A (ja) * 2012-07-20 2014-02-03 Seiko Epson Corp 衝突検出システム、衝突検出用データ生成装置、ロボットシステム、ロボット、衝突検出用データ生成方法及びプログラム
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
JP2015062991A (ja) * 2013-08-28 2015-04-09 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP2016078184A (ja) * 2014-10-17 2016-05-16 ファナック株式会社 ロボットの干渉領域設定装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8720331D0 (en) * 1987-08-28 1987-10-07 Caplin Cybernetics Corp Control system
JP2003136466A (ja) * 2001-10-25 2003-05-14 Murata Mach Ltd 産業用ロボットの制御装置
JP2012243138A (ja) 2011-05-20 2012-12-10 Seiko Epson Corp 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム
CN102528811B (zh) 2011-12-19 2014-06-18 上海交通大学 托克马克腔内的机械臂定位与避障系统
JP5872894B2 (ja) * 2011-12-28 2016-03-01 川崎重工業株式会社 ロボット動作教示支援装置及び方法
DE102013018638A1 (de) 2013-11-06 2015-05-07 Daimler Ag Verfahren zum Übenwachen eines Arbeitsbereichs
US9452531B2 (en) * 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
US9233469B2 (en) 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
US9855661B2 (en) * 2016-03-29 2018-01-02 The Boeing Company Collision prevention in robotic manufacturing environments
US9990535B2 (en) * 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length
CN106054900B (zh) 2016-08-08 2018-11-09 电子科技大学 基于深度摄像头的机器人临时避障方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
JP2013186088A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法
JP2014021810A (ja) * 2012-07-20 2014-02-03 Seiko Epson Corp 衝突検出システム、衝突検出用データ生成装置、ロボットシステム、ロボット、衝突検出用データ生成方法及びプログラム
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
JP2015062991A (ja) * 2013-08-28 2015-04-09 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP2016078184A (ja) * 2014-10-17 2016-05-16 ファナック株式会社 ロボットの干渉領域設定装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080036A1 (ja) 2020-10-16 2022-04-21 オムロン株式会社 制御装置、ロボット、制御方法、プログラム
WO2022091578A1 (ja) 2020-10-26 2022-05-05 オムロン株式会社 制御装置、ロボット、制御方法、プログラム
WO2022123850A1 (ja) 2020-12-09 2022-06-16 オムロン株式会社 制御装置、制御方法、プログラム
WO2024004746A1 (ja) * 2022-07-01 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 システム及びプログラム

Also Published As

Publication number Publication date
DE102017127950A1 (de) 2018-06-07
US20180157230A1 (en) 2018-06-07
CN108127661B (zh) 2019-09-10
CN108127661A (zh) 2018-06-08
US10481571B2 (en) 2019-11-19
JP6420296B2 (ja) 2018-11-07
DE102017127950B4 (de) 2019-11-07

Similar Documents

Publication Publication Date Title
JP6420296B2 (ja) ロボットの干渉領域を自動で設定するロボット制御装置
JP6309990B2 (ja) 複数の機構ユニットにより構成されたロボットを制御するロボットシステム、該機構ユニット、およびロボット制御装置
CN104722926B (zh) 一种机器人三维激光自动切割系统方法
JP4271232B2 (ja) ロボットのオフラインプログラミングを実行するための装置、方法、プログラム及び記録媒体
CN111844053B (zh) 教导设备、教导方法和机器人系统
US9454144B2 (en) Machine tool path display apparatus displaying relative tool vector angle
JP4727689B2 (ja) ワーク計測装置、衝突防止装置および工作機械
JP5444412B2 (ja) 加工処理の評価を行うための情報を表示する表示部を備えた数値制御装置
US20180345492A1 (en) Direct teaching method of robot
JP6514264B2 (ja) 工作機械の制御システム
CN107088878B (zh) 计算扫描空间的机器人的模拟装置
JP2014126939A (ja) 工作機械の負荷表示装置
JP5622125B2 (ja) 多軸モータ駆動システム及び多軸モータ駆動装置
JP2018062026A (ja) ロボットの速度や加速度を制限する機能を備えたロボット制御装置
JP4180469B2 (ja) 工作機械の加工適否チェック方法
WO2021192890A1 (ja) 工作機械、工作機械の制御方法、および、工作機械の制御プログラム
JP7114521B2 (ja) 遠隔操作ロボットの作業支援システム及び作業支援方法
JP6474450B2 (ja) 工作機械の制御システム
CN111033412A (zh) 伺服马达调整装置及伺服马达调整方法
JP6917551B2 (ja) ロボット制御方法およびロボット
WO2021241512A1 (ja) ワークに対する作業をロボットに実行させる制御装置、ロボットシステム、及び制御方法
JP2017035756A (ja) 走行軸付きロボットにおけるツール先端の振れを抑制するロボット制御装置
JP6647094B2 (ja) 表面性状測定機用のパートプログラム生成装置
JP6777516B2 (ja) 情報処理装置
JP7473323B2 (ja) 産業機械の移動軌跡の画像データを生成する装置、制御装置、及び方法

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181011

R150 Certificate of patent or registration of utility model

Ref document number: 6420296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150