JP6866673B2 - 監視システム、監視装置、および監視方法 - Google Patents
監視システム、監視装置、および監視方法 Download PDFInfo
- Publication number
- JP6866673B2 JP6866673B2 JP2017025602A JP2017025602A JP6866673B2 JP 6866673 B2 JP6866673 B2 JP 6866673B2 JP 2017025602 A JP2017025602 A JP 2017025602A JP 2017025602 A JP2017025602 A JP 2017025602A JP 6866673 B2 JP6866673 B2 JP 6866673B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- area
- worker
- unit
- movable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 62
- 238000000034 method Methods 0.000 title claims description 41
- 238000012806 monitoring device Methods 0.000 title claims description 38
- 238000001514 detection method Methods 0.000 claims description 45
- 239000002131 composite material Substances 0.000 claims description 41
- 239000003550 marker Substances 0.000 claims description 25
- 210000000746 body region Anatomy 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 230000007717 exclusion Effects 0.000 description 11
- 230000005856 abnormality Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/142—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39082—Collision, real time collision avoidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39091—Avoid collision with moving obstacles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40201—Detect contact, collision with human
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40492—Model manipulator by spheres for collision avoidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/49—Protective device
Description
まず、本実施の形態に従う監視装置を含む監視システム1の構成例について説明する。
図2は、ビジョンコントローラ120のハードウェア構成例の一例を示したものである。図2を参照して、ビジョンコントローラ120は、プログラムを実行するCPU(Central Processing Unit)101と、データを不揮発的に格納するROM(Read Only Memory)102と、データを揮発的に格納するRAM(Random Access Memory)103と、フラッシュメモリ104と、入力部107と、情報および信号を送受信する通信IF(interface)108と、エラー報知などを行なう報知装置109とを備える。ROM102に、CPU101が実行するプログラムなどが格納されている。また、セーフティコントローラ150と、ロボットコントローラそれぞれについても、図2と同様のハードウェア構成を採用している。
次に、監視装置100の機能構成例を示す。図3は、監視装置100の機能構成例を示した図である。ビジョンコントローラ120は、第2特定部8と、第3特定部10と、第4特定部16と、設定部17とを含む。セーフティコントローラ150は、第1特定部6と、測定部12と、制限部14と、比較部18と、発光制御部154とを備える。
次に、本実施形態の監視システム1の効果を説明する。簡潔に説明すると、監視システム1は、作業者300の大まかな位置を特定し、該特定された位置周辺に限定して画像処理を行う。より詳細に説明すると、監視システム1は、カメラ4で撮像された画像のうち合成領域600Bの画像から、画像処理を行なうことにより、ロボット可動領域400B(図8参照)と、人体領域300B(図10参照)とを特定する。その後、監視システム1は、ロボット可動領域400Bと、人体領域300Bとの距離Lが予め定められた距離Lc以下となったときに、制御対象のロボット400の動作が制限される。このように、ロボット400の動作が制限されるか否かの判断が行われる画像(以下、「画像処理が実行される画像」という。)は、合成領域の画像に限る(狭める)ことができる。したがって、従来の作業領域の全領域の画像を判断対象の画像とする従来の監視システムと比較して、本実施形態の監視システム1によれば画像処理の負担を軽減することができる。
次に、作業領域αの他に設けられている領域を説明する。図12は、作業領域αなどの各領域を示した図である。図12の例では、各領域を真上から見たものである。図12の例では、作業領域αの全てを含む領域として、侵入検出領域βが設けられている。さらに、侵入検出領域βの全てを含む領域として警告領域γが設けられている。
次に、監視装置100のフローチャートについて説明する。図13は、監視装置100のフローチャートを説明するための図である。また、各ステップの主体は、監視装置100に含まれる各構成部で示す。
次に、ロボットの動作エラーの検出手法について説明する。図14は、該動作エラーの検出手法を説明するための図である。図3および図14を用いて、該動作エラーの検出手法を説明する。
次に、図13のS12でも説明した座標変換パラメータの算出手法の一例について説明する。センサ2の座標系とビジョンコントローラ120の座標系とのキャリブレーションを実行することにより、座標変換パラメータを算出することができる。座標変換パラメータは、第1特定部6が、センサ2により検出された作業者300の位置から、作業者可動領域300Aを特定するために用いるパラメータである。
以上、本発明の実施例を図面により説明してきたが、本発明はこの実施例に限定されるものではない。本発明は、上記の実施例に限られず、種々の変形、応用が可能である。以下、本発明に適用可能な変形例などについて説明する。
本実施形態では、カメラ4は、作業領域α内の全ての画像を撮像するとして説明した。本変形例では、カメラ4は、合成領域600Bの箇所のみを撮像する。図16は、本変形例の監視装置110の機能構成例を示した図である。図3と図16とを比較すると、ビジョンコントローラの構成が異なっている。本変形例(図16)のビジョンコントローラ121は、図3に示すビジョンコントローラ120内の設定部17が、カメラ指示部123に代替されている点で、図3と図16とは異なる。
作業領域α内のロボットのうち少なくとも1のロボットが移動可能である場合にも、本願発明は、適用可能である。以下、図3を用いて説明する。
本実施形態では、センサ2が、作業者300の位置を特定するために、図1に示すように、作業者300にRFタグ302を取り付けるとして説明した。しかしながら、監視システム1が作業者300の位置を特定できるのであれば、他の手法を用いてもよい。図17は、作業者300の位置を特定するための他の手法を説明するための図である。図17の例では、発光するLED304を各作業者の一部に取り付ける。図17では、作業者が装着するヘルメットにLED304が取り付けられた例を示す。
本実施形態では、図8に示したように、ロボット400のアーム406にLEDを取り付けるとして説明した。しかしながら、監視システム1がアーム406の位置を特定できるのであれば、他の手法を用いてもよい。本変形例では、アーム406に反射マーカを取り付けた例を説明する。反射マーカは、照明が当てられることにより、反射するマーカである。
また、ロボットを監視する監視システムとして、安全柵、セーフティライトカーテン、セーフティレーザースキャナ、セーフティリミットスイッチなどを用いるものがある。しかし、防護領域が固定的で作業領域内のラインのレイアウト変更等に柔軟に対応できないという課題がある。これに対し、本発明は、安全柵、セーフティライトカーテンなどを用いずに、作業者の安全性を担保できることから、レイアウト変更に柔軟に対応できる。
Claims (8)
- 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視装置を含む監視システムであって、
前記作業領域内に侵入した前記作業者の位置を検出する検出部と、
前記検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、
前記第1特定部で特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部と、
前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域を設定する設定部と、
前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、
前記合成領域の画像から前記作業者の人体領域を特定する第3特定部と、
前記第2特定部で特定された前記ロボット可動領域と、前記第3特定部で特定された前記人体領域との距離を測定する測定部と、
前記測定部で測定された距離が、予め定められた距離以下となったときに、該ロボットの動きを制限する制限部とを備える、監視システム。 - 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視装置を含む監視システムであって、
前記作業領域内に侵入した前記作業者の位置を検出する検出部と、
前記検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、
前記第1特定部で特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部とを備え、
前記撮像部は、前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域に限定して撮像し、
前記監視システムは、さらに、
前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、
前記合成領域の画像から前記作業者の人体領域を特定する第3特定部と、
前記第2特定部で特定された前記ロボット可動領域と、前記第3特定部で特定された前記人体領域との距離を測定する測定部と、
前記測定部で測定された距離が、予め定められた距離以下となったときに、該ロボットの動きを制限する制限部とを備える、監視システム。 - 前記第1特定部は、前記検出部で検出された前記作業者の位置に基づき特定される前記作業者可動領域から、前記作業者が存在し得ない領域を除外することにより、新たな前記作業者可動領域として特定する、請求項1または請求項2に記載の監視システム。
- 前記第2特定部は、前記ロボットの可動部分に設けられたマーカに基づき、前記ロボット可動領域を特定する、請求項1〜3のいずれか1項に記載の監視システム。
- 前記ロボットの可動部分に設けられたマーカに基づき、前記撮像部で撮像された画像から前記ロボットの可動部分の位置を特定する第4特定部と、
前記第4特定部で特定した前記ロボットの可動部分の位置と、前記ロボットの制御部に入力された動作情報で示される動作とを比較する比較部とをさらに備える、請求項1〜4のいずれか1項に記載の監視システム。 - 前記ロボットは移動可能であり、
前記検出部は、前記ロボットの位置を特定し、
前記第1特定部は、前記検出部で検出した前記ロボットの位置に基づき前記ロボット占有領域を特定する、請求項1〜5のいずれか1項に記載の監視システム。 - 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視装置であって、
前記作業領域内に侵入した前記作業者の位置を検出する検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、
前記第1特定部で特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部で撮像された領域の画像から、前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域を設定する設定部と、
前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、
前記合成領域の画像から前記作業者の人体領域を特定する第3特定部と、
前記第2特定部で特定された前記ロボット可動領域と、前記第3特定部で特定された前記人体領域との距離を測定する測定部と、
前記測定部で測定された距離が、予め定められた値以下となったときに、該ロボットの動きを制限する制限部とを備える、監視装置。 - 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視方法であって、
前記作業領域内に侵入した前記作業者の位置を検出する検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定するステップと、
特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部で撮像された領域の画像から、前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域を設定するステップと、
前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定するステップと、
前記合成領域の画像から前記作業者の人体領域を特定するステップと、
前記ロボット可動領域と、前記人体領域との距離を測定するステップと、
測定された距離が、予め定められた値以下となったときに、該ロボットの動きを制限するステップとを備える、監視方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025602A JP6866673B2 (ja) | 2017-02-15 | 2017-02-15 | 監視システム、監視装置、および監視方法 |
CN201711133392.9A CN108426160B (zh) | 2017-02-15 | 2017-11-15 | 监控系统、监控装置及监控方法 |
EP17202077.8A EP3363602B1 (en) | 2017-02-15 | 2017-11-16 | Monitoring system, monitoring device, and monitoring method |
US15/818,756 US10452939B2 (en) | 2017-02-15 | 2017-11-21 | Monitoring system, monitoring device, and monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025602A JP6866673B2 (ja) | 2017-02-15 | 2017-02-15 | 監視システム、監視装置、および監視方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018130793A JP2018130793A (ja) | 2018-08-23 |
JP6866673B2 true JP6866673B2 (ja) | 2021-04-28 |
Family
ID=60574370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017025602A Active JP6866673B2 (ja) | 2017-02-15 | 2017-02-15 | 監視システム、監視装置、および監視方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10452939B2 (ja) |
EP (1) | EP3363602B1 (ja) |
JP (1) | JP6866673B2 (ja) |
CN (1) | CN108426160B (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016100445A1 (de) * | 2016-01-12 | 2017-07-13 | Pilz Gmbh & Co. Kg | Sicherheitseinrichtung und Verfahren zum Überwachen einer Maschine |
US11000953B2 (en) * | 2016-08-17 | 2021-05-11 | Locus Robotics Corp. | Robot gamification for improvement of operator performance |
JP2018176397A (ja) * | 2017-04-21 | 2018-11-15 | オムロン株式会社 | ロボットシステム |
JP2018202504A (ja) * | 2017-05-31 | 2018-12-27 | ソニー株式会社 | 医療用支持アームシステム、医療用支持アームの制御方法、および医療用支持アームの制御装置 |
JP6748145B2 (ja) | 2018-05-15 | 2020-08-26 | ファナック株式会社 | ロボットシステム |
DE102018116371B4 (de) * | 2018-07-06 | 2020-08-06 | Sick Ag | 3D-Sensor und Verfahren zum Überwachen eines Überwachungsbereichs |
JP7144247B2 (ja) * | 2018-09-03 | 2022-09-29 | 川崎重工業株式会社 | ロボットの制御装置 |
JP6816077B2 (ja) * | 2018-09-14 | 2021-01-20 | ファナック株式会社 | 誘導情報提示装置、誘導情報提示サーバ、誘導情報提示システム、誘導情報提示方法及びプログラム |
US11258987B2 (en) | 2018-09-21 | 2022-02-22 | Microsoft Technology Licensing, Llc | Anti-collision and motion control systems and methods |
JP6885909B2 (ja) * | 2018-10-12 | 2021-06-16 | ファナック株式会社 | ロボット制御装置 |
JP7156397B2 (ja) * | 2018-12-28 | 2022-10-19 | 京セラドキュメントソリューションズ株式会社 | 制御装置 |
US11951634B2 (en) * | 2019-03-15 | 2024-04-09 | Eid Robotics Oy | System and a method for forming a controlled safety area for a manipulator |
JP7012040B2 (ja) * | 2019-03-28 | 2022-01-27 | 本田技研工業株式会社 | 動作領域制限方法、及びロボット制御装置 |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
JP7205972B2 (ja) * | 2019-05-24 | 2023-01-17 | 川崎重工業株式会社 | 教示システム |
US11815598B2 (en) | 2019-06-10 | 2023-11-14 | Microsoft Technology Licensing, Llc | Anti-collision and motion monitoring, control, and alerting systems and methods |
WO2021033241A1 (ja) * | 2019-08-19 | 2021-02-25 | オムロン株式会社 | ロボット制御システム |
CN110606084B (zh) * | 2019-09-19 | 2020-12-18 | 中国第一汽车股份有限公司 | 巡航控制方法、装置、车辆及存储介质 |
CN113471119A (zh) * | 2020-03-31 | 2021-10-01 | 芝浦机械电子装置株式会社 | 基板处理装置以及基板处理方法 |
KR102447386B1 (ko) * | 2020-06-18 | 2022-09-23 | 아주대학교산학협력단 | 로봇 통합 실행 방법과 이를 이용한 로봇 안전 강화 방법 및 그 시스템 |
US11621068B2 (en) * | 2020-09-11 | 2023-04-04 | International Business Machines Corporation | Robotic arm for patient protection |
EP4001949A1 (en) * | 2020-11-24 | 2022-05-25 | The Boeing Company | A system for proximity reporting in an assembly environment |
WO2022172522A1 (ja) * | 2021-02-15 | 2022-08-18 | パナソニックIpマネジメント株式会社 | 侵入検出装置および侵入検出方法 |
CN117813810A (zh) * | 2021-08-26 | 2024-04-02 | 松下电器(美国)知识产权公司 | 远程监视系统、异常检测系统、远程监视方法以及程序 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004029502A1 (de) | 2002-09-24 | 2004-04-08 | Pilz Gmbh & Co. Kg | Verfahren und vorrichtung zum absichern eines gefahrenbereichs |
US20100114373A1 (en) * | 2008-10-31 | 2010-05-06 | Camotion, Inc. | Systems and methods for scanning a workspace volume for objects |
JP4648486B2 (ja) * | 2009-01-26 | 2011-03-09 | ファナック株式会社 | 人間とロボットとの協調動作領域を有する生産システム |
JP5343641B2 (ja) * | 2009-03-12 | 2013-11-13 | 株式会社Ihi | ロボット装置の制御装置及びロボット装置の制御方法 |
EP2553383B1 (en) | 2010-03-31 | 2014-02-26 | Omron Scientific Technologies, INC. | Method and apparatus for generating texture in a three-dimensional scene |
US9498289B2 (en) * | 2010-12-21 | 2016-11-22 | Restoration Robotics, Inc. | Methods and systems for directing movement of a tool in hair transplantation procedures |
JP2013154457A (ja) * | 2012-01-31 | 2013-08-15 | Asahi Kosan Kk | ワーク移載システム、ワーク移載方法及びプログラム |
JP6018821B2 (ja) * | 2012-07-09 | 2016-11-02 | 東京エレクトロン株式会社 | クリーンルームの監視装置及びクリーンルームの監視方法 |
CN104428107B (zh) * | 2012-07-10 | 2016-06-29 | 西门子公司 | 机器人布置和用于控制机器人的方法 |
EP2890529A2 (en) * | 2012-08-31 | 2015-07-08 | Rethink Robotics Inc. | Systems and methods for safe robot operation |
US9102055B1 (en) * | 2013-03-15 | 2015-08-11 | Industrial Perception, Inc. | Detection and reconstruction of an environment to facilitate robotic interaction with the environment |
JP6171457B2 (ja) * | 2013-03-25 | 2017-08-02 | セイコーエプソン株式会社 | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム |
GB2540893A (en) * | 2013-07-22 | 2017-02-01 | Atlantic Inertial Systems Ltd | DRIE lead silicon etching process |
DE102013012839B4 (de) * | 2013-08-02 | 2019-05-09 | Abb Schweiz Ag | Robotersystem |
US9452531B2 (en) * | 2014-02-04 | 2016-09-27 | Microsoft Technology Licensing, Llc | Controlling a robot in the presence of a moving object |
JP6402469B2 (ja) * | 2014-04-04 | 2018-10-10 | 富士電機株式会社 | 安全制御装置および安全制御システム |
US9283678B2 (en) * | 2014-07-16 | 2016-03-15 | Google Inc. | Virtual safety cages for robotic devices |
EP3017920B1 (en) * | 2014-11-07 | 2017-08-23 | Comau S.p.A. | An industrial robot and a method for controlling an industrial robot |
JP2016151897A (ja) * | 2015-02-17 | 2016-08-22 | 株式会社安川電機 | 移動体制御装置および移動体制御方法 |
JP6034895B2 (ja) * | 2015-02-20 | 2016-11-30 | ファナック株式会社 | 外力に応じてロボットを退避動作させる人間協調ロボットシステム |
JP2016159367A (ja) * | 2015-02-26 | 2016-09-05 | ファナック株式会社 | ロボットの動作モードを自動的に切替えるロボット制御装置 |
US9857786B2 (en) * | 2015-03-31 | 2018-01-02 | Recognition Robotics, Inc. | System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame |
JP6659231B2 (ja) * | 2015-04-08 | 2020-03-04 | 富士電機株式会社 | 生産ライン監視システム |
CN105150210B (zh) * | 2015-05-13 | 2017-05-24 | 西北工业大学 | 一种用于遥操作人机交互的虚拟管道动态避障控制方法 |
CN105912530A (zh) * | 2016-04-26 | 2016-08-31 | 北京光年无限科技有限公司 | 面向智能机器人的信息处理方法及系统 |
US10186130B2 (en) * | 2016-07-28 | 2019-01-22 | The Boeing Company | Using human motion sensors to detect movement when in the vicinity of hydraulic robots |
EP4088891A1 (en) * | 2017-02-07 | 2022-11-16 | Veo Robotics, Inc. | Workspace safety monitoring and equipment control |
US10252420B2 (en) * | 2017-06-09 | 2019-04-09 | Precise Automation, Inc. | Collaborative robot |
-
2017
- 2017-02-15 JP JP2017025602A patent/JP6866673B2/ja active Active
- 2017-11-15 CN CN201711133392.9A patent/CN108426160B/zh active Active
- 2017-11-16 EP EP17202077.8A patent/EP3363602B1/en active Active
- 2017-11-21 US US15/818,756 patent/US10452939B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN108426160B (zh) | 2021-02-05 |
JP2018130793A (ja) | 2018-08-23 |
EP3363602B1 (en) | 2020-12-16 |
US20180232593A1 (en) | 2018-08-16 |
CN108426160A (zh) | 2018-08-21 |
EP3363602A1 (en) | 2018-08-22 |
US10452939B2 (en) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6866673B2 (ja) | 監視システム、監視装置、および監視方法 | |
US20200333789A1 (en) | Information processing apparatus, information processing method, and medium | |
US10379513B2 (en) | Monitoring system, monitoring device, and monitoring method | |
US11174989B2 (en) | Sensor arrangement and method of securing a monitored zone | |
US10521625B2 (en) | Safety control device, method of controlling safety control device, and recording medium | |
CN111226178B (zh) | 监视设备、工业系统、用于监视的方法及计算机程序 | |
JP6479264B2 (ja) | 協働ロボットシステム、及びその制御方法 | |
US9615064B2 (en) | Tracking moving objects using a camera network | |
US10404971B2 (en) | Optoelectronic sensor and method for safe detection of objects of a minimum size | |
JP6080969B2 (ja) | 対象物の姿勢を決定するための方法と装置 | |
JP2020511325A (ja) | 作業空間安全監視および機器制御 | |
JP2008033819A (ja) | 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体 | |
CN114585875A (zh) | 计量系统 | |
JP7282186B2 (ja) | 状況認識監視 | |
JP7280852B2 (ja) | 人物検知システム、人物検知プログラム、学習済みモデル生成プログラム及び学習済みモデル | |
JP7310297B2 (ja) | 作業ロボットおよびその制御方法 | |
JP2010122904A (ja) | 自律移動ロボット | |
JP2016214937A (ja) | 計測システムおよびコンピュータプログラム | |
JP4111959B2 (ja) | 距離計測システム | |
KR101907875B1 (ko) | 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법 | |
US20230196495A1 (en) | System and method for verifying positional and spatial information using depth sensors | |
IES20160070A2 (en) | Monitoring system | |
KR20240045677A (ko) | 로봇과의 안전한 협업 보조 방법 및 장치 | |
JP2016214545A (ja) | 計測システム、被験体の呼吸に起因する生体活動の計測方法およびコンピュータプログラム | |
JP2023133837A (ja) | センサシステムおよびその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6866673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |