JP2018089728A - ロボットの干渉領域を自動で設定するロボット制御装置 - Google Patents
ロボットの干渉領域を自動で設定するロボット制御装置 Download PDFInfo
- Publication number
- JP2018089728A JP2018089728A JP2016234240A JP2016234240A JP2018089728A JP 2018089728 A JP2018089728 A JP 2018089728A JP 2016234240 A JP2016234240 A JP 2016234240A JP 2016234240 A JP2016234240 A JP 2016234240A JP 2018089728 A JP2018089728 A JP 2018089728A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- depth
- depth map
- map information
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4061—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37425—Distance, range
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40179—Design of controller
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40563—Object detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
【解決手段】ロボット制御装置10は、ロボット11の所定の部分からロボット11の周辺に存る物体20の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部13と、所定の部分の3次元位置情報を取得するロボット位置取得部14と、上記の深度データ群と3次元位置情報とを用いて、ロボット11の設置位置を原点とする上記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部15と、深度マップ情報から物体20が占める範囲を推定し、この範囲をロボット11の干渉領域とする干渉領域設定部16と、を備える。
【選択図】図1
Description
そこで、ロボットが動作できる範囲(以下、動作範囲と呼ぶ。)をロボット制御装置に事前に設定しておき、設定された動作領域をロボットが逸脱する場合には該ロボットを停止させて、ロボットと周辺機器との干渉を未然に防ぐことが行われている。この種の方法(以下、背景技術1と呼ぶ。)は特許文献1などに開示される。
さらに、ユーザが周辺機器の配置を変更したときは、それに応じてロボットの動作範囲を改めて設定する必要があるので、手間がかかりやすい。
ロボットの所定の部分から該ロボットの周辺に存在する物体の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部と、
所定の部分の3次元位置情報を取得するロボット位置取得部と、
深度データ群と所定の部分の3次元位置情報とを用いて、ロボットの設置位置を原点とする前記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部と、
深度マップ情報から物体が占める範囲を推定し、該範囲をロボットの干渉領域として設定する干渉領域設定部と、
を備えた、ロボット制御装置が提供される。
ロボット11の一例は、例えば垂直多関節ロボット、移動機構ロボット、パラレルリンクロボット、直動機構ロボットなど任意のタイプのロボットを含む。
前述した深度データ群は、ロボット11の周辺に在る物体の表面に対してマトリクス状に定義される複数点のそれぞれについての深度データの集合であり、このような深度データ群は、深度を測定する公知の深度センサを用いて取得されうる。
このような深度センサ12は、ロボット11の干渉領域を設定するときのみ、前述したロボット11における所定の部分に取付けられるのが好ましい。この所定の部分は、ロボット11の先端部、例えばロボットアーム部の先端におけるツールや把持ハンドなどを着脱可能な手首フランジ部でありうる。
例えば、ロボット11が多関節ロボットの場合、多関節ロボットの各関節部は、サーボモータ(不図示)により駆動されてロボットアーム部を回転させる駆動軸を備えている。ロボット位置取得部14は、それら駆動軸に配置されたパルスコーダなどの位置検出器からロボット11の各駆動軸の回転位置(角度)を読取り、これら回転角度と各ロボットアーム部の既知の設定寸法とから、ロボットアーム部の先端部の位置を取得できる。
ここで取得されるロボット11の所定の部分の位置情報、例えばロボットアーム先端部の位置情報は、ロボット11の設置位置を原点とする座標系(以下、ロボット座標系と呼ぶ。)で定義される3次元位置情報である。上記の設置位置は、例えばロボット11を工場に設置する場合、工場の床面におけるロボット11が固定された部分の位置である。
記憶部17には、前述のように設定された干渉領域や、ロボット11の動作プログラムや、深度センサ12のロボット11への取付位置に関する情報(以下、センサ取付位置情報と称す)などが記憶される。
指令部18は、ロボット11の干渉領域の設定を開始する指令を深度取得部13やロボット11に出力することができる。さらに、指令部18は、設定された干渉領域を考慮しつつ、ロボット11の動作プログラムに基づく動作指令をロボット11に送出するようになされている。
指令部18は、予め作成された動作プログラムに従ってロボット11を動作させる指令を生成してサーボモータに出力する。あるいは、指令部18は、ロボット制御装置に接続された教示操作盤からの動作指令をサーボモータに出力する。このとき、設定された干渉領域にロボット11が侵入しそうな位置指令値が出力されたならば、指令部18はサーボモータを停止または減速する指令を出力する。
深度データ群は、上記の物体の表面に対してマトリクス状に定義された複数点のそれぞれについての深度データの集合であり、例えば、図2に示されるような画像(所謂、深度画像)31として取得されうる。深度画像31のZ方向(図面に直交する方向)が深度を指しており、深度画像31を構成する複数点が深度の深浅に応じて濃淡を変えて表示される。但し、図2においては、理解を容易にする為、白、黒、ドットパターン、斜線などが描かれた丸を用いて、深度画像31を構成する複数点を模式的に示している。例えば、白丸の方が黒丸よりも深度は浅い。
ロボット11の所定の部分、例えば手首フランジ部といったロボットアームの先端部に深度センサ12を取付け、深度センサ12から、ロボット11の周辺に存在する物体20の表面までの深度データ群を取得することができる。さらに、深度センサ12が取付けられたロボット11の所定の部分の3次元位置情報を基に、深度センサ12により取得された深度データ群を、ロボット11の設置位置を原点とする3次元位置情報に変換することにより、深度マップ情報を生成することができる。このような深度マップ情報に基づき、ロボット11の干渉領域を設定することができる。つまり、ロボット11と周辺機器などの障害物とが干渉しないための該ロボット11の動作範囲を自動で設定することができる。
さらに、周辺機器の位置が変わった場合には、再度、干渉領域設定フローを記述したプログラムを実行すれば、干渉領域の再設定が済むため、ユーザの作業削減につながる。
干渉範囲の再設定のときのみ深度センサ12を利用すればよいため、深度センサ12は一つ有ればよい。深度センサ12を使いまわすことができるので、コストの削減につながる。
上述した一実施形態のロボット制御装置10による干渉領域設定フローは、ロボット11を任意の一姿勢で停止させて行われている。しかしながら、ロボット11と干渉する可能性のある物体がロボット11の周辺に広範囲に存在する場合には、一回の干渉領域設定フローのみによって、そのような物体が占める範囲を干渉領域として設定するのは難しい。また、ロボット11の周辺に在る物体の形状が複雑な形の集合である場合においても、一回の干渉領域設定フローのみで干渉領域を定めるのは難しい。このような場合、上述した干渉領域設定フローは複数回行われるのが好ましい。
まず、ロボット制御装置10はロボット11を、図3に実線で示されるようなロボット姿勢(以下、第一姿勢と呼ぶ。)にして停止させる。次いで、ロボット制御装置10は、第一姿勢をとったロボット11の先端部に装着されている深度センサ12によって、この深度センサ12から物体20の表面上の複数点までの深度データ群、例えば深度画像31Aを取得する。さらに、ロボット制御装置10は、深度画像31Aの情報と、第一姿勢でのロボット11の先端部の位置情報と、センサ取付位置情報とを用いて、第一姿勢での深度マップ情報、例えば深度画像32Aを生成する。
第一姿勢での深度マップ情報を生成した後、ロボット制御装置10はロボット11を、図3に二点鎖線で示されるようなロボット姿勢(以下、第二姿勢と呼ぶ。)にして停止させる。次いで、ロボット制御装置10は、第二姿勢をとったロボット11の先端部に装着されている深度センサ12によって、この深度センサ12から物体20の表面上の複数点までの深度データ群、例えば深度画像31Bを取得する。さらに、ロボット制御装置10は、深度画像31Bの情報と、第二姿勢でのロボット11の先端部の位置情報と、センサ取付位置情報とを用いて、第二姿勢での深度マップ情報、例えば深度画像32Bを生成する。
以上の事により、広範囲に存在する物体が占める範囲を干渉領域として設定することができる。特に、物体20の周囲に複数の深度センサを設置する必要がなく、一つの深度センサ12をロボット11に取付け、ロボット11の姿勢を変え、各姿勢ごとに生成された深度マップ情報を一つの深度マップ情報に統合することにより、障害物の場所を設定することができる。
例えば、本発明の第一態様として、ロボット11の動作を制御するロボット制御装置10であって、ロボット11の所定の部分からロボット11の周辺に存在する物体20の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部13と、ロボット11の所定の部分の3次元位置情報を取得するロボット位置取得部14と、上記の深度データ群と上記所定の部分の3次元位置情報とを用いて、ロボット11の設置位置を原点とする上記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部15と、その深度マップ情報から物体20が占める範囲を推定し、この範囲をロボット11の干渉領域として設定する干渉領域設定部16とを備えた、ロボット制御装置10が提供される。
上記第一態様によれば、ロボットと周辺機器などの障害物とが干渉しないための該ロボットの動作範囲を自動で設定することができる。
第二態様としては、上記第一態様のロボット制御装置10であって、干渉領域設定部16は、深度マップ情報から物体20の形状を推定し、該形状を簡略化された形に変換し、該簡略化された形が占める範囲をロボット11の干渉領域として設定するようになされた、ロボット制御装置10が提供される。
上記第二態様によれば、ロボット11の干渉領域として設定される物体20の形を、簡略化された形に変換しているため、記憶部に記憶させるデータ量を削減できる。さらに、干渉領域を基にロボット11を動作させるときの処理速度を向上させ、ノイズも低減させることができる。
第三態様としては、上記第一態様又は第二態様のロボット制御装置10であって、ロボット11の前記所定の部分に着脱可能に取付けられていて前記深度を測定する深度センサ12を備えた、ロボット制御装置10が提供される。
上記第三態様によれば、ロボット11の干渉領域の設定時にのみ深度センサ12をロボット11に取付けて、干渉領域の設定フローを実行することができる。
第四態様としては、上記第三態様のロボット制御装置10であって、ロボット制御装置10は、深度センサ12が取付けられたロボット11の姿勢を変更するようにロボット11を動作させる度に前記深度マップ情報を生成するようになされ、干渉領域設定部16は、ロボット11の姿勢ごとに生成された前記深度マップ情報から、ロボット11の干渉領域となる範囲を設定するようになされた、ロボット制御装置10が提供される。
上記の第四態様によれば、広範囲に存在する物体20が占める範囲をロボット11の干渉領域として設定することができる。
11 ロボット
12 深度センサ
13 深度取得部
14 ロボット位置取得部
15 深度マップ生成部
16 干渉領域設定部
17 記憶部
18 指令部
20 物体
33 干渉領域
31、31A、32A、31B、32B、34 深度画像
Claims (4)
- ロボットの動作を制御するロボット制御装置であって、
前記ロボットの所定の部分から前記ロボットの周辺に存在する物体の表面上の任意の複数点までの深度を示す深度データ群を取得する深度取得部と、
前記所定の部分の3次元位置情報を取得するロボット位置取得部と、
前記深度データ群と前記所定の部分の前記3次元位置情報とを用いて、前記ロボットの設置位置を原点とする前記複数点の3次元位置情報からなる深度マップ情報を生成する深度マップ生成部と、
前記深度マップ情報から前記物体が占める範囲を推定し、該範囲を前記ロボットの干渉領域として設定する干渉領域設定部と、
を備えたロボット制御装置。 - 前記干渉領域設定部は、前記深度マップ情報から前記物体の形状を推定し、該形状を簡略化された形に変換し、該簡略化された形が占める範囲を前記ロボットの干渉領域として設定するようになされた、請求項1に記載のロボット制御装置。
- 前記所定の部分に着脱可能に取付けられていて、前記深度を測定する深度センサを備えた、請求項1又は2に記載のロボット制御装置。
- 前記ロボット制御装置は、前記深度センサが取付けられた前記ロボットの姿勢を変更するように前記ロボットを動作させる度に前記深度マップ情報を生成するようになされており、
前記干渉領域設定部は、前記ロボットの姿勢ごとに生成された前記深度マップ情報から、前記干渉領域となる範囲を設定するようになされた、請求項3に記載のロボット制御装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016234240A JP6420296B2 (ja) | 2016-12-01 | 2016-12-01 | ロボットの干渉領域を自動で設定するロボット制御装置 |
DE102017127950.4A DE102017127950B4 (de) | 2016-12-01 | 2017-11-27 | Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt |
US15/825,437 US10481571B2 (en) | 2016-12-01 | 2017-11-29 | Robot controller which automatically sets interference region for robot |
CN201711237050.1A CN108127661B (zh) | 2016-12-01 | 2017-11-30 | 机器人控制装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016234240A JP6420296B2 (ja) | 2016-12-01 | 2016-12-01 | ロボットの干渉領域を自動で設定するロボット制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018089728A true JP2018089728A (ja) | 2018-06-14 |
JP6420296B2 JP6420296B2 (ja) | 2018-11-07 |
Family
ID=62164106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016234240A Active JP6420296B2 (ja) | 2016-12-01 | 2016-12-01 | ロボットの干渉領域を自動で設定するロボット制御装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10481571B2 (ja) |
JP (1) | JP6420296B2 (ja) |
CN (1) | CN108127661B (ja) |
DE (1) | DE102017127950B4 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022080036A1 (ja) | 2020-10-16 | 2022-04-21 | オムロン株式会社 | 制御装置、ロボット、制御方法、プログラム |
WO2022091578A1 (ja) | 2020-10-26 | 2022-05-05 | オムロン株式会社 | 制御装置、ロボット、制御方法、プログラム |
WO2022123850A1 (ja) | 2020-12-09 | 2022-06-16 | オムロン株式会社 | 制御装置、制御方法、プログラム |
WO2024004746A1 (ja) * | 2022-07-01 | 2024-01-04 | ソニーセミコンダクタソリューションズ株式会社 | システム及びプログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018176386A (ja) * | 2017-04-19 | 2018-11-15 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP2021142635A (ja) * | 2020-03-13 | 2021-09-24 | オムロン株式会社 | 干渉判定装置、方法、及びプログラム |
US20230196495A1 (en) * | 2021-12-22 | 2023-06-22 | Datalogic Ip Tech S.R.L. | System and method for verifying positional and spatial information using depth sensors |
US11717974B1 (en) * | 2022-06-10 | 2023-08-08 | Sanctuary Cognitive Systems Corporation | Haptic photogrammetry in robots and methods for operating the same |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000094374A (ja) * | 1998-09-25 | 2000-04-04 | Matsushita Electric Works Ltd | ピッキング装置 |
JP2013186088A (ja) * | 2012-03-09 | 2013-09-19 | Canon Inc | 情報処理装置、情報処理方法 |
JP2014021810A (ja) * | 2012-07-20 | 2014-02-03 | Seiko Epson Corp | 衝突検出システム、衝突検出用データ生成装置、ロボットシステム、ロボット、衝突検出用データ生成方法及びプログラム |
JP2014161950A (ja) * | 2013-02-25 | 2014-09-08 | Dainippon Screen Mfg Co Ltd | ロボットシステム、ロボット制御方法、ロボット較正方法 |
JP2015062991A (ja) * | 2013-08-28 | 2015-04-09 | キヤノン株式会社 | 座標系校正方法、ロボットシステム、プログラム及び記録媒体 |
JP2016078184A (ja) * | 2014-10-17 | 2016-05-16 | ファナック株式会社 | ロボットの干渉領域設定装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8720331D0 (en) * | 1987-08-28 | 1987-10-07 | Caplin Cybernetics Corp | Control system |
JP2003136466A (ja) * | 2001-10-25 | 2003-05-14 | Murata Mach Ltd | 産業用ロボットの制御装置 |
JP2012243138A (ja) | 2011-05-20 | 2012-12-10 | Seiko Epson Corp | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム |
CN102528811B (zh) | 2011-12-19 | 2014-06-18 | 上海交通大学 | 托克马克腔内的机械臂定位与避障系统 |
JP5872894B2 (ja) * | 2011-12-28 | 2016-03-01 | 川崎重工業株式会社 | ロボット動作教示支援装置及び方法 |
DE102013018638A1 (de) | 2013-11-06 | 2015-05-07 | Daimler Ag | Verfahren zum Übenwachen eines Arbeitsbereichs |
US9452531B2 (en) * | 2014-02-04 | 2016-09-27 | Microsoft Technology Licensing, Llc | Controlling a robot in the presence of a moving object |
US9233469B2 (en) | 2014-02-13 | 2016-01-12 | GM Global Technology Operations LLC | Robotic system with 3D box location functionality |
US9283678B2 (en) * | 2014-07-16 | 2016-03-15 | Google Inc. | Virtual safety cages for robotic devices |
US10173324B2 (en) * | 2015-11-16 | 2019-01-08 | Abb Schweiz Ag | Facilitating robot positioning |
US9855661B2 (en) * | 2016-03-29 | 2018-01-02 | The Boeing Company | Collision prevention in robotic manufacturing environments |
US9990535B2 (en) * | 2016-04-27 | 2018-06-05 | Crown Equipment Corporation | Pallet detection using units of physical length |
CN106054900B (zh) | 2016-08-08 | 2018-11-09 | 电子科技大学 | 基于深度摄像头的机器人临时避障方法 |
-
2016
- 2016-12-01 JP JP2016234240A patent/JP6420296B2/ja active Active
-
2017
- 2017-11-27 DE DE102017127950.4A patent/DE102017127950B4/de active Active
- 2017-11-29 US US15/825,437 patent/US10481571B2/en active Active
- 2017-11-30 CN CN201711237050.1A patent/CN108127661B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000094374A (ja) * | 1998-09-25 | 2000-04-04 | Matsushita Electric Works Ltd | ピッキング装置 |
JP2013186088A (ja) * | 2012-03-09 | 2013-09-19 | Canon Inc | 情報処理装置、情報処理方法 |
JP2014021810A (ja) * | 2012-07-20 | 2014-02-03 | Seiko Epson Corp | 衝突検出システム、衝突検出用データ生成装置、ロボットシステム、ロボット、衝突検出用データ生成方法及びプログラム |
JP2014161950A (ja) * | 2013-02-25 | 2014-09-08 | Dainippon Screen Mfg Co Ltd | ロボットシステム、ロボット制御方法、ロボット較正方法 |
JP2015062991A (ja) * | 2013-08-28 | 2015-04-09 | キヤノン株式会社 | 座標系校正方法、ロボットシステム、プログラム及び記録媒体 |
JP2016078184A (ja) * | 2014-10-17 | 2016-05-16 | ファナック株式会社 | ロボットの干渉領域設定装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022080036A1 (ja) | 2020-10-16 | 2022-04-21 | オムロン株式会社 | 制御装置、ロボット、制御方法、プログラム |
WO2022091578A1 (ja) | 2020-10-26 | 2022-05-05 | オムロン株式会社 | 制御装置、ロボット、制御方法、プログラム |
WO2022123850A1 (ja) | 2020-12-09 | 2022-06-16 | オムロン株式会社 | 制御装置、制御方法、プログラム |
WO2024004746A1 (ja) * | 2022-07-01 | 2024-01-04 | ソニーセミコンダクタソリューションズ株式会社 | システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
DE102017127950A1 (de) | 2018-06-07 |
US20180157230A1 (en) | 2018-06-07 |
CN108127661B (zh) | 2019-09-10 |
CN108127661A (zh) | 2018-06-08 |
US10481571B2 (en) | 2019-11-19 |
JP6420296B2 (ja) | 2018-11-07 |
DE102017127950B4 (de) | 2019-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6420296B2 (ja) | ロボットの干渉領域を自動で設定するロボット制御装置 | |
JP6309990B2 (ja) | 複数の機構ユニットにより構成されたロボットを制御するロボットシステム、該機構ユニット、およびロボット制御装置 | |
CN104722926B (zh) | 一种机器人三维激光自动切割系统方法 | |
JP4271232B2 (ja) | ロボットのオフラインプログラミングを実行するための装置、方法、プログラム及び記録媒体 | |
CN111844053B (zh) | 教导设备、教导方法和机器人系统 | |
US9454144B2 (en) | Machine tool path display apparatus displaying relative tool vector angle | |
JP4727689B2 (ja) | ワーク計測装置、衝突防止装置および工作機械 | |
JP5444412B2 (ja) | 加工処理の評価を行うための情報を表示する表示部を備えた数値制御装置 | |
US20180345492A1 (en) | Direct teaching method of robot | |
JP6514264B2 (ja) | 工作機械の制御システム | |
CN107088878B (zh) | 计算扫描空间的机器人的模拟装置 | |
JP2014126939A (ja) | 工作機械の負荷表示装置 | |
JP5622125B2 (ja) | 多軸モータ駆動システム及び多軸モータ駆動装置 | |
JP2018062026A (ja) | ロボットの速度や加速度を制限する機能を備えたロボット制御装置 | |
JP4180469B2 (ja) | 工作機械の加工適否チェック方法 | |
WO2021192890A1 (ja) | 工作機械、工作機械の制御方法、および、工作機械の制御プログラム | |
JP7114521B2 (ja) | 遠隔操作ロボットの作業支援システム及び作業支援方法 | |
JP6474450B2 (ja) | 工作機械の制御システム | |
CN111033412A (zh) | 伺服马达调整装置及伺服马达调整方法 | |
JP6917551B2 (ja) | ロボット制御方法およびロボット | |
WO2021241512A1 (ja) | ワークに対する作業をロボットに実行させる制御装置、ロボットシステム、及び制御方法 | |
JP2017035756A (ja) | 走行軸付きロボットにおけるツール先端の振れを抑制するロボット制御装置 | |
JP6647094B2 (ja) | 表面性状測定機用のパートプログラム生成装置 | |
JP6777516B2 (ja) | 情報処理装置 | |
JP7473323B2 (ja) | 産業機械の移動軌跡の画像データを生成する装置、制御装置、及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6420296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |