JP6866673B2 - 監視システム、監視装置、および監視方法 - Google Patents

監視システム、監視装置、および監視方法 Download PDF

Info

Publication number
JP6866673B2
JP6866673B2 JP2017025602A JP2017025602A JP6866673B2 JP 6866673 B2 JP6866673 B2 JP 6866673B2 JP 2017025602 A JP2017025602 A JP 2017025602A JP 2017025602 A JP2017025602 A JP 2017025602A JP 6866673 B2 JP6866673 B2 JP 6866673B2
Authority
JP
Japan
Prior art keywords
robot
area
worker
unit
movable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017025602A
Other languages
English (en)
Other versions
JP2018130793A (ja
Inventor
喜東 谷
喜東 谷
敏之 樋口
敏之 樋口
郁雄 松川
郁雄 松川
一洋 工藤
一洋 工藤
哲也 赤木
哲也 赤木
覚 下川
覚 下川
和成 松岡
和成 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017025602A priority Critical patent/JP6866673B2/ja
Priority to CN201711133392.9A priority patent/CN108426160B/zh
Priority to EP17202077.8A priority patent/EP3363602B1/en
Priority to US15/818,756 priority patent/US10452939B2/en
Publication of JP2018130793A publication Critical patent/JP2018130793A/ja
Application granted granted Critical
Publication of JP6866673B2 publication Critical patent/JP6866673B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39091Avoid collision with moving obstacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40201Detect contact, collision with human
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40492Model manipulator by spheres for collision avoidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/49Protective device

Description

本技術は、作業者とロボットとが作業する作業領域内で、作業者が安全に作業できるように作業者およびロボットの動作を監視する監視システム、監視装置、および監視方法に関する。
従来から、作業者とロボットとが協働して作業する作業領域内で、作業者およびロボットの動作を監視する監視システムが提案されている。たとえば、特許文献1記載の発明は、複数の撮像装置で作業領域の全領域を撮像し、該撮像された画像について画像処理を行うことにより、作業者の位置とロボットとの位置を検出する。特許文献1記載の発明は、検出された作業者の位置とロボットとの位置に基づいて、作業者が安全に作業できるように、ロボットの動作を制御する。
特表2006−501487号公報
上述の特許文献1では、作業領域の全領域の画像について画像処理を行う必要があることから、画像処理の負担が増大するという問題があった。
本技術は、このような問題に鑑み、画像処理の負担を軽減する監視システム、監視装置、および監視方法を提供する。
本発明のある局面によれば、作業者とロボットとが作業する作業領域内で、作業者が安全に作業できるように作業者およびロボットの動作を監視する監視装置を含む監視システムであって、作業領域内に侵入した作業者の位置を検出する検出部と、検出部で検出した作業者の位置に基づき作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、第1特定部で特定した作業者可動領域と、ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部と、撮像部で撮像された領域の画像からロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、撮像部で撮像された領域の画像から作業者の人体領域を特定する第3特定部と、第2特定部で特定されたロボット可動領域と、第3特定部で特定された人体領域との距離を測定する測定部と、測定部で測定された距離が、予め定められた距離以下となったときに、該ロボットの動きを制限する制限部とを備える。
好ましくは、第1特定部は、検出部で検出された作業者の位置に基づき特定される作業者可動領域から、作業者が存在し得ない領域を除外することにより、新たな作業者可動領域として特定する。
好ましくは、作業者可動領域と、作業者可動領域と少なくとも一部が重なるロボット占有領域とを合成した領域を合成領域と設定する設定部をさらに備え、第2特定部は、撮像部で撮像された領域のうち合成領域の画像からロボット可動領域を特定し、第3特定部は、撮像部で撮像された領域のうち合成領域の画像から人体領域を特定する。
好ましくは、撮像部は、作業者可動領域と、作業者可動領域と少なくとも一部が重なるロボット占有領域とを合成した合成領域に限定して撮像する。
好ましくは、第2特定部は、ロボットの可動部に設けられたマーカに基づき、ロボット可動領域を特定する。
好ましくは、ロボットの可動部に設けられたマーカに基づき、撮像部で撮像された画像からロボットの可動部の位置を特定する第4特定部と、第4特定部で特定したロボットの可動部の位置と、ロボットの制御部に入力された動作情報で示される動作とを比較する比較部とをさらに備える。
好ましくは、ロボットは移動可能であり、検出部は、ロボットの位置を特定し、第1特定部は、検出部で検出したロボットの位置に基づきロボット占有領域を特定する。
本発明の別の局面に従う監視装置は、作業者とロボットとが作業する作業領域内で、作業者が安全に作業できるように作業者およびロボットの動作を監視する監視装置であって、作業領域内に侵入した作業者の位置を検出する検出部で検出した作業者の位置に基づき作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、第1特定部で特定した作業者可動領域と、ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部で撮像された領域の画像からロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、撮像部で撮像された領域の画像から作業者の人体領域を特定する第3特定部と、第2特定部で特定されたロボット可動領域と、第3特定部で特定された人体領域との距離を測定する測定部と、測定部で測定された距離が、予め定められた値以下となったときに、該ロボットの動きを制限する制限部とを備える。
本発明の別の局面に従う監視方法は、作業者とロボットとが作業する作業領域内で、作業者が安全に作業できるように作業者およびロボットの動作を監視する監視方法であって、作業領域内に侵入した作業者の位置を検出する検出部で検出した作業者の位置に基づき作業者が可動する範囲を表す作業者可動領域を特定するステップと、特定した作業者可動領域と、ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部で撮像された領域の画像からロボットの可動部分が可動する範囲を表すロボット可動領域を特定するステップと、撮像部で撮像された領域の画像から作業者の人体領域を特定するステップと、ロボット可動領域と、人体領域との距離を測定するステップと、測定された距離が、予め定められた値以下となったときに、該ロボットの動きを制限するステップとを備える。
本技術に係る監視システム、監視装置、および監視方法によれば、画像処理の負担を軽減できる。
本実施の形態に従う監視システム1の構成例を示す図である。 コントローラのハードウェア構成を示す図である。 監視装置の機能構成例を示す図である。 作業者可動領域を示す図である。 ロボット占有領域を示す図である。 作業者可動領域と、ロボット占有領域との重なる領域を示す図である。 合成領域600Bを示す図である。 ロボット可動領域を示す図である。 対応付けられた発光態様を示す図である。 ロボット可動領域と、人体領域とを示す図である。 クラスタ情報の集合体を示す図である。 作業領域などの各領域を示す図である。 監視装置のフローチャートを示す図である。 該動作エラーの検出手法を示す図である。 座標変換パラメータの算出手法を示す図である。 変形例の監視装置の機能構成例を示す図である。 作業者の位置を特定するための他の手法を示す図である。 アームの位置を特定するための他の手法を示す図である。
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。
<監視システム1の構成例>
まず、本実施の形態に従う監視装置を含む監視システム1の構成例について説明する。
図1は、本実施の形態に従う監視システム1の構成例を示す図である。図1を参照して、本実施の形態に従う監視システム1は、監視装置100と、1以上の撮像部としてのカメラ4と、1以上の検出部としてのセンサ2とを有する。監視装置100は、ビジョンコントローラ120と、セーフティコントローラ150とを含む。本実施形態では、ビジョンコントローラ120と、セーフティコントローラ150と、後述するロボットコントローラとは独立的に設けられている。換言すると、ビジョンコントローラ120と、セーフティコントローラ150と、ロボットコントローラとはそれぞれ別の筐体で構成されている。図1の例では、カメラ4は2台設置されており、センサ2は2台設置されている。
監視システム1は、作業者300とロボット400とが作業する作業領域α内で、作業者300が安全に作業できるように作業者300およびロボット400の動作を監視する。本実施形態では、ロボット400は移動せずにその場で固定された状態で動作を行なう(作業を行なう)。センサ2は、作業領域αに侵入した作業者300の位置を検出する。本実施形態では、作業者300の位置を検出する手法として、電波を出力するRF(radio frequency)タグを用いる。センサ2は、RFタグを検出可能である。作業者300は、RFタグ302を体の一部に取付けることにより、センサ2は、RFタグ302(該作業者300)の位置を特定する。作業者300の位置とは、たとえば、作業領域αにおける三次元的な座標である。たとえば、「センサ2が該作業者300の位置を特定する」とは、「センサ2が、作業者300に取付けられているRFタグ302の作業領域αにおける三次元的な座標を取得する」ということである。
また、RFタグではなく、超音波を出力するタグを用いるようにしてもよい。この場合には、センサ2は該超音波を受信することにより、センサ2は、RFタグ302の位置を検出する。また、タグが出力するものおよびセンサ2が受信するものは、電波および超音波などに限られず他のものであってもよい。
作業領域α内には、複数のロボット400が設置されている。図1の例では、ロボット400は、載置台402に載置されている。作業領域α内において、作業者300は、ロボット400との協同作業が可能となる。
作業領域α内には、構造物500が設置されている。構造物500は、作業者300が立ち入ることができないものである。構造物500とは、たとえば、ロボット400を制御するロボットコントローラを含む制御装置としてもよい。また、構造物500は、作業者300の荷物などを載置可能な棚としてもよい。
カメラ4は、主に、作業領域α内の作業者300およびロボット400などを動画として撮像する。カメラ4は、レンズなどの光学系と、撮像素子とを含む。撮像素子は、CCD(Coupled Charged Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどである。また、本実施形態では、カメラ4は2台設けられている。該2台のカメラ4により、作業領域α内の画像を三次元的に撮像できる。
<監視装置100のハードウェア構成例>
図2は、ビジョンコントローラ120のハードウェア構成例の一例を示したものである。図2を参照して、ビジョンコントローラ120は、プログラムを実行するCPU(Central Processing Unit)101と、データを不揮発的に格納するROM(Read Only Memory)102と、データを揮発的に格納するRAM(Random Access Memory)103と、フラッシュメモリ104と、入力部107と、情報および信号を送受信する通信IF(interface)108と、エラー報知などを行なう報知装置109とを備える。ROM102に、CPU101が実行するプログラムなどが格納されている。また、セーフティコントローラ150と、ロボットコントローラそれぞれについても、図2と同様のハードウェア構成を採用している。
<監視装置100の機能構成例>
次に、監視装置100の機能構成例を示す。図3は、監視装置100の機能構成例を示した図である。ビジョンコントローラ120は、第2特定部8と、第3特定部10と、第4特定部16と、設定部17とを含む。セーフティコントローラ150は、第1特定部6と、測定部12と、制限部14と、比較部18と、発光制御部154とを備える。
センサ2は、作業領域α内に侵入した作業者300の位置を、該作業者300に取付けられているRFタグ302に基づいて検出する。該センサ2により検出された作業者300の位置を示す検出情報が第1特定部6に入力される。第1特定部6は、センサ2で検出したRFタグ302(作業者300の位置)を示す検出情報に基づき、作業者可動領域300Aを特定する。
図4は、作業者可動領域300Aを示す図である。作業者可動領域300Aとは、作業者300が可動する範囲を表す。一般的に、作業領域α内での作業者の動作スピードは推定されている。作業者可動領域300Aとは、所定時間(たとえば、1秒間)以内に、作業者300または作業者300の一部(たとえば、作業者300の腕)が動作することにより通過すると推測される領域である。
また、作業者可動領域300Aは、センサ2により検知されたRFタグ302の位置を含む領域である。したがって、センサ2の検知誤差が生じた場合であっても、作業者可動領域300Aは、該検知誤差を吸収できる領域である。このように、本実施形態の作業者可動領域300Aは、センサ2の検知誤差を考慮した領域でもある。また、作業者可動領域300Aは、侵入者(つまり作業者300)が存在する可能性がある侵入者存在可能領域ともいう。また、カメラ4が撮像する画像におけるROI(Region of Interest)は、カメラ4が撮像する画像のうち監視において関心ある領域であって、第1特定部6により特定された作業者可動領域300Aに対応する領域である。
第1特定部6により特定された作業者可動領域300Aは、設定部17に入力される。また、本明細書において、作業者可動領域300Aなどの領域については、該領域を示す情報という意味でも用いる。したがって、たとえば、「作業者可動領域300Aが設定部17に入力される」とは、「作業者可動領域300Aを示す情報が設定部17に入力される」ということである。また、RAM103に格納されているロボット占有領域400Aは、設定部17に入力される。
ここで、ロボット占有領域400Aについて説明する。図5は、ロボット占有領域400Aを示す図である。ロボット占有領域400Aは、ロボット400が実行可能な全ての作業において、ロボット400の一部(たとえば、図8に示すアーム406)およびロボット400の全てが通過し得る領域である。また、ロボット占有領域400Aは、所定の記憶領域(本実施形態では、RAM103)に格納されている情報である。各ロボットの位置は予め定められていることから、ロボット占有領域400Aは予め定められている領域である。ロボット占有領域400Aは、3次元の座標(x座標、y座標、z座標)の範囲により特定される領域である。
監視装置100の管理者、たとえば、作業領域αの監督者などは、各ロボット400の位置を入力部107に入力する。監視装置100に含まれる変換部(特に図示せず)は、入力された各ロボット400の位置から、ロボット占有領域に変換する。変換されたロボット占有領域は、各ロボット毎にRAM103に格納される。
一般的に、作業領域αでの作業内容によっては、各ロボットの位置が変更される。監視装置100の管理者により入力された各ロボット400の位置から、ロボット占有領域400Aは生成される。したがって、ロボットの位置が変更されたとしても、該変更に応じて、柔軟に、監視装置100は、ロボット占有領域400Aを生成できる。
設定部17は、第1特定部6からの作業者可動領域300Aと、該作業者可動領域300Aと少なくとも一部が重なるロボット占有領域400Aとを合成した領域を合成領域として設定する。図6は、作業者可動領域300Aと、該作業者可動領域300Aと少なくとも一部が重なるロボット占有領域400Aとを示した図である。図6の例では、作業者可動領域300Aとロボット占有領域400Aの一部とが、領域600A(ハッチングの箇所)において重なっている。また、作業者可動領域300Aとロボット占有領域400Aとのうちいずれか一方の全てが他方に含まれる場合には、作業者可動領域300Aとロボット占有領域400Aとのうち大きい方の領域を合成領域としてもよい。
図7は、設定部17により設定される合成領域600Bを示した図である。図7の例では、設定部17は、作業者可動領域300Aとロボット占有領域400Aとの論理和の領域(ORの領域)から、除外領域500Aを除外した領域を合成領域600Bとして設定する。ここで、除外領域500Aは、構造物500の領域である。また、作業者300は、構造物500内に立ち入ることができない。したがって、除外領域500Aは、作業者300が存在し得ない領域であるといえる。設定された合成領域600Bは、第2特定部8、第3特定部10、および第4特定部16に入力される。なお、本実施形態では、設定部17は、作業者可動領域300Aから除外領域500Aを除外し、該除外後の作業者可動領域300Aと、ロボット占有領域400Aとの論理和の領域(ORの領域)を合成領域600Bとして設定する。
また、構造物500の位置は予め定まっている。したがって、該構造物500の除外領域500Aについては、予め学習されており、かつ所定の記憶領域(たとえば、RAM103)に予め格納されている。設定部17は、該格納されている除外領域500Aの情報(座標)を用いて、作業者可動領域300Aから除外領域500Aを除外する。また、該学習などの手法については、如何なる手法を用いてもよい。該手法については、たとえば、「米国特許出願公開2011−242283号明細書」などに記載されている。
第2特定部8は、カメラ4で撮像された領域の撮像画像からロボット400の可動部分(本実施形態では、アーム)が可動する範囲を表すロボット可動領域を特定する。該ロボット400は、カメラ4で撮像された領域の撮像画像のうち、合成領域600Bに含まれるロボット400である。図8は、ロボット可動領域を示す図である。
図8を用いて、まず、ロボット400の詳細な構造を説明する。ロボット400は、台部404と、アーム406とを含む。アーム406は、第1アーム411と、第2アーム412と、第3アーム413と、該第1アーム411と該第2アーム412とを接続する関節部414と、該第2アーム412と該第3アーム413とを接続する関節部415と、該第3アーム413と台部404とを接続する関節部416とを含む。このような構成により、アーム406は3次元的な動作が可能となる。
第2特定部8は、ロボット400の可動部としてのアーム406に設けられたマーカに基づき、ロボット可動領域を特定する。本実施形態のマーカは、発光するLEDである。本実施形態では、第1LED421が、第1アーム411の延伸方向の中央部に設けられる。第2LED422が、第2アーム412の延伸方向の中央部に設けられる。第3LED423が、第3アーム413の延伸方向の中央部に設けられる。各LEDは、セーフティコントローラ150内の発光制御部154の制御により発光する。
また、各LEDは、ロボット400の動作によってロボット400自身の影に入ることによりカメラ4が撮像できない位置に入ることがないように、各アームに巻き付けるような形で取り付けられることが好ましい。
第1LED421、第2LED422、および第3LED423は、それぞれ対応付けられた発光態様で発光する。図9は、対応付けられた発光態様を示す図である。図9の例では、第1LED421は、継続して発光し(継続発光し)、第2LED422は、1秒毎に発光し(1秒点滅し)、第3LED423は、2秒毎に発光する(2秒点滅する)。第1LED421、第2LED422、および第3LED423それぞれの発光態様(以下、「LED発光態様」という。)は、予め定められた記憶領域(本実施形態では、ROM102)に記憶されている。
カメラ4で撮像された撮像画像は、第2特定部8に入力される。第2特定部8は、撮像画像のうち、合成領域600Bに含まれる画像を抽出する。その後、第2特定部8は、該抽出した画像内において、ROM102に記憶されているLED発光態様に基づいて、第1アーム411、第2アーム412、および第3アーム413の動作を認識できる。つまり、第2特定部8は、継続発光しているLEDを第1LED421と認識し、該第1LED421の軌跡を認識することにより、第1アーム411の動作を認識できる。また、第2特定部8は、1秒点滅発光しているLEDを第2LED422と認識し、該第2LED422の軌跡を認識することにより、第2アーム412の動作を認識できる。また、第2特定部8は、2秒点滅発光しているLEDを第3LED423と認識し、該第3LED423の軌跡を認識することにより、第3アーム413の動作を認識できる。
第2特定部8は、第1アーム411の動作を認識することにより、第1アーム411が動作可能な第1アーム領域411A(第1アーム411が存在していると推定される領域)を認識できる。第2特定部8は、第2アーム412の動作を認識することにより、第2アーム412が動作可能な第2アーム領域412A(第2アーム412が存在していると推定される領域)を認識できる。第2特定部8は、第3アーム413の動作を認識することにより、第3アーム413が動作可能な第3アーム領域413A(第3アーム413が存在していると推定される領域)を認識できる。
さらに、第2特定部8は、第1アーム領域411A、第2アーム領域412A、および第3アーム領域413Aを合成することにより、ロボット可動領域400Bを特定する。本実施形態では、第2特定部8は、第1アーム領域411A、第2アーム領域412A、および第3アーム領域413Aの論理和の領域(ORの領域)をロボット可動領域400Bとして特定する。ロボット可動領域400Bは、ロボット400の可動部分(つまり、アーム406)の動作に基づいて、アーム406が可動する範囲を示す範囲である。換言すれば、ロボット可動領域400Bは、ロボット400のアーム406が動作することにより通過すると推測される領域である。また、ロボット可動領域400Bは、第2特定部8により認識された各LEDの位置を含む領域である。したがって、第2特定部8の認識誤差が生じた場合であっても、ロボット可動領域400Bは、該認識誤差を吸収できる領域である。また、ロボット占有領域400Aは、ロボット400が実行可能な全ての作業において、ロボット400の一部(たとえば、図8に示すアーム406)およびロボット400の全てが通過し得る領域である。一方、ロボット可動領域400Bは、アーム406の現在の動作に基づいて該アーム406が通過すると予測される領域である。したがって、ロボット可動領域400Bは、ロボット占有領域400Aよりも狭い領域である。
このように、第2特定部8は、撮像画像において合成領域600B内に含まれる各LED(第1LED421、第2LED422、および第3LED423)の動作を認識することにより、ロボット400の可動部分が動作する範囲を示すロボット可動領域400Bを特定することができる。特定されたロボット可動領域400Bは、測定部12に入力される。ロボット可動領域400Bは、3次元の座標(x座標、y座標、z座標)の範囲により特定される領域である。
第3特定部10は、カメラ4で撮像された撮像画像の領域のうち、合成領域600Bの画像から作業者300の人体領域を特定する。図10は、合成領域600B内の画像において、ロボット可動領域400Bと、人体領域300Bとを示した図である。たとえば、第3特定部10は、合成領域600Bの画像の最小単位の画像(たとえば、ピクセル単位)の特徴量を抽出する。また、ROM102には、人体の特徴量がモデルとして予め格納されている。ここで、特徴量とは、作業者300の顔、および作業者300が着用している作業服などを示す特徴量である。第3特定部10は、抽出された特徴量と、ROM102に格納されている特徴量との差分に応じて一致度を算出する。たとえば、この差分が大きければ、第3特定部10により算出される一致度は小さくなり、この差分が小さければ、第3特定部10により算出される一致度は大きくなる。第3特定部10は、一致度が予めさめられた閾値よりも高い特徴量の領域を人体領域として特定する。なお、人体領域の特定の手法は、これに限らず、他の手法を用いるようにしてもよい。
また、第3特定部10は、合成領域600Bのうち、RFタグ302の領域の特徴量、および該RFタグ302周辺の領域の特徴量を抽出し、他の領域の特徴量を抽出しないようにしてもよい。このような構成によれば、合成領域600Bの全ての領域の特徴量を抽出する構成と比較して、特徴量を抽出する領域を狭めることができることから、特徴量を抽出する処理の負担を軽減できる。特定された人体領域300Bは、測定部12に入力される。人体領域300Bは、3次元の座標(x座標、y座標、z座標)の範囲により特定される領域である。
測定部12は、第2特定部8で特定されたロボット可動領域400Bと、第3特定部10で特定された人体領域300Bとの距離Lを測定する。測定部12は、該測定のために、人体領域300Bを最小単位の領域に分割することにより、クラスタ情報の集合体300Cを生成する。図11は、クラスタ情報の集合体300Cを示す図である。測定部12は、クラスタ情報の集合体300Cのうち、ロボット可動領域400Bに最も近いクラスタ情報300Caと、ロボット可動領域400Bとの距離L(3次元距離)を測定する。測定された距離Lは、制限部14に入力される。
制限部14は、入力された距離Lが、予め定められた距離Lc(閾値)以下となったときに、制限信号をロボットコントローラ200に対して送信することにより、ロボット400の動作を制限する。ロボットコントローラ200は、各ロボット400の動作を制御するコントローラである。制限信号は、ロボット400の動作を制限するための信号である。
ここで、動作が制限されるロボット400(以下、「制御対象のロボット」ともいう。)とは、クラスタ情報300Caとの距離Lが、距離Lc以下と判断されたロボットである。また、ロボットの動作の制限とは、たとえば、ロボット400の動作速度を低下させる処理と、ロボット400の動作を完全に停止させる処理とを含む。また、予め定められた距離Lcは、予めROM102に格納されている。距離Lcはたとえば、1mであるとする。
たとえば、制限部14により、距離Lが距離Lc以下と判断されたときにおいて、さらに、距離Lと距離Lcとの差分ΔLが第1の所定値Th1以下であると判断されたときには、制限部14は、ロボット400の動作速度を低下させる旨の制限信号をロボットコントローラ200に対して送信する。これにより、ロボットコントローラ200は、該制限信号を受信すると、動作が制限される対象のロボット400の動作速度を遅くすることができる。
また、制限部14により、距離Lが距離Lc以下と判断されたときにおいて、さらに、距離Lと距離Lcとの差分ΔLが第2の所定値Th2(Th2<Th1)以下であると判断されたときには、制限部14は、ロボット400の動作を完全に停止させる旨の制限信号をロボットコントローラ200に対して送信する。これにより、ロボットコントローラ200は、該制限信号を受信すると、動作が制限される対象のロボット400の動作を完全に停止させることができる。
このように、監視装置100は、距離Lが距離Lc以下と判断されたときにおいて、作業者300とロボット400との距離Lに応じてロボット400の制御内容を異ならせる。具体的には、監視装置100は、たとえば、作業者300とロボット400との距離Lが比較的長ければ、ロボット400の動作速度を低下させる制御を行なう。また、監視装置100は、作業者300とロボット400との距離Lが短ければ、ロボット400の動作を完全に停止させる制御を行なう。
[監視システム1の効果について]
次に、本実施形態の監視システム1の効果を説明する。簡潔に説明すると、監視システム1は、作業者300の大まかな位置を特定し、該特定された位置周辺に限定して画像処理を行う。より詳細に説明すると、監視システム1は、カメラ4で撮像された画像のうち合成領域600Bの画像から、画像処理を行なうことにより、ロボット可動領域400B(図8参照)と、人体領域300B(図10参照)とを特定する。その後、監視システム1は、ロボット可動領域400Bと、人体領域300Bとの距離Lが予め定められた距離Lc以下となったときに、制御対象のロボット400の動作が制限される。このように、ロボット400の動作が制限されるか否かの判断が行われる画像(以下、「画像処理が実行される画像」という。)は、合成領域の画像に限る(狭める)ことができる。したがって、従来の作業領域の全領域の画像を判断対象の画像とする従来の監視システムと比較して、本実施形態の監視システム1によれば画像処理の負担を軽減することができる。
また、第3特定部10は、カメラ4が撮像する画像におけるROIのみを処理することにより人体領域300Bを特定することから、人体領域300Bを特定するための処理負荷を下げることができる。また、該処理負担を下げることができることから、監視システム1が画像処理を行なう対象のフレームレートを上げることができる。したがって、監視システム1の応答性能を上げることができる。
また、本実施形態の監視システム1では、合成領域600B内に含まれるロボット、つまり、作業者300から距離Lc以下の距離分離れたロボットのみを検出し、該ロボットの動作を制限する。換言すれば、該ロボット以外のロボットについては動作を制限しないこと。したがって、作業領域α内の全てのロボットの動作を制限する監視システムと比較して、作業領域α内のロボットの稼働率を向上させることができる。
また、画像処理が行われる画像の領域である合成領域600Bは、作業者可動領域300Aとロボット占有領域400Aとの論理和の領域から、除外領域500Aを除外した領域である。したがって、「作業者可動領域300Aとロボット占有領域400Aとの論理和の領域から、除外領域500Aを除外しない領域について画像処理を行う」監視システムと比較して、画像処理を行なう画像の領域を狭めることができることから、画像処理の負担を軽減できる。
また、本実施形態の監視システム1は、ロボット占有領域400Aよりも狭いロボット可動領域400Bと、人体領域300B(クラスタ情報の集合体300C)との距離Lを測定する。したがって、「ロボット可動領域400Bよりも広いロボット占有領域400Aと、人体領域300Bとの距離Lを測定する監視システム」と比較して、距離Lを測定する際の画像処理を行なう画像の領域を狭めることができる。したがって、該画像処理の負担を軽減できる。
また、本実施形態の監視システム1は、ロボット400のアーム406に取り付けられたマーカ(本実施形態では、第1LED421、第2LED422、および第3LED423)に基づいて、ロボット可動領域400Bを特定可能である。したがって、本実施形態の監視システム1は、正確に、ロボット可動領域400Bを特定可能である。
[領域について]
次に、作業領域αの他に設けられている領域を説明する。図12は、作業領域αなどの各領域を示した図である。図12の例では、各領域を真上から見たものである。図12の例では、作業領域αの全てを含む領域として、侵入検出領域βが設けられている。さらに、侵入検出領域βの全てを含む領域として警告領域γが設けられている。
警告領域γは、RFタグ302が取付けられているかに関わらず侵入者が侵入することにより、報知装置109により警告報知が実行される領域である。該侵入は、カメラ4で検出するようにしてもよく、カメラ4とは他の検出装置(図示せず)で検出するようにしてもよい。侵入検出領域βは、センサ2が、RFタグ302が取付けられた侵入者などを検出・認証可能な領域である。侵入検出領域βに侵入した作業者が、RFタグ302の不所持などで検出・認証が失敗した場合には、所定の警告を出力する。また、この場合には、安全性の観点から、監視システム1は、作業システム(ロボット400の制御など)を停止させるようにしてもよい。
[フローチャートについて]
次に、監視装置100のフローチャートについて説明する。図13は、監視装置100のフローチャートを説明するための図である。また、各ステップの主体は、監視装置100に含まれる各構成部で示す。
S2において、第1特定部6は、センサ2により侵入検出領域βでの検出が開始されることにより、作業者の侵入を検出する検出処理を実行する。S4において、S2の該検出処理により、侵入検出領域βへの作業者の侵入が検出された場合には(S4のYES)、S6に進む。
S6において、第1特定部6は、センサ2の検出対象を検出する。S8において、第1特定部6は、S6における検出処理によりセンサ2の検出対象が検出されたか否かを判断する。S8において、NOと判断された場合には、S32に進む。S32において、制限部14は、ロボットコントローラ200に対して、制御信号を送信することにより、全てのロボット400の動作を制限する。ここでの制限は、全てのロボット400の動作を完全に停止させるものである。このように、S4において、侵入検出領域への作業者の侵入が検出されたと判断されたが、S8において、センサ2の検出対象が検出されなかったと判断された場合というのは、センサ2の故障および監視装置100などの少なくとも一方が故障している可能性が高い。したがって、このような場合には、全てのロボット400の動作を完全に停止させることにより、安全性を担保することができる。
S10において、第1特定部6は、センサ2により作業者300の位置を検出する。次に、S12において、第1特定部6は、後述する座標変換パラメータに基づいて、作業者可動領域300Aを特定(設定)する。次に、S14において、設定部17は、作業者可動領域300Aから、構造物500の3次元構造情報を用いて、作業者可動領域300Aを絞り込み処理を行なう。3次元構造情報は、構造物500の3次元的な座標を含む情報である。設定部17は、絞り込み処理として、作業者可動領域300Aから、除外領域500Aを除外する。
次に、S16において、設定部17は、ロボット占有領域400Aを用いて、合成領域600Bを設定する。次に、S18において、第2特定部8は、合成領域600B内のロボット400のアーム406に設けられたLED(第1LED421、第2LED422、および第3LED423)の発光を検出する。次に、S20において、S18の検出によりLEDの発光が検出されたと第2特定部8により判断された場合には(S20のYES)、S22において、第2特定部8は、検出されたLEDは取り付けられているロボットを「制御対象のロボット」と判断する。一方、S20においてNOと判断された場合には、S10に戻る。
S24において、第2特定部8は、検出されたLEDの位置に基づいて、ロボット可動領域400Bを特定する。次に、S26において、第3特定部10は、合成領域600内の人体領域300B(クラスタ情報の集合体300C)を特定する。次に、S28において、測定部12は、人体領域300B(クラスタ情報の集合体300C)とロボット可動領域400Bの距離L(3次元距離)を算出する。次に、S30において、制限部14は、算出された距離Lが、予め定められた距離Lc以下となったか否かを判断する。S30において、YESと判断された場合には、S2において、制御対象のロボットの動作を制限させる。また、S30において、NOと判断された場合には、S10に戻る。
[ロボットの動作エラーについて]
次に、ロボットの動作エラーの検出手法について説明する。図14は、該動作エラーの検出手法を説明するための図である。図3および図14を用いて、該動作エラーの検出手法を説明する。
図14に示すように、ビジョンコントローラ120の第4特定部16は、発光パターン特定部124と、ロボット位置特定部122とを含む。また、ロボットコントローラ200は、制御クロック生成部202と、ロボット制御指令生成部204とを含む。
制御クロック生成部202は、制御クロックを生成する。生成された制御クロックは、ロボット制御指令生成部204および発光制御部154に入力される。ロボット制御指令生成部204は、該クロック信号に基づいて、指令信号を生成し、該指令信号をロボット400に対して送信する。ロボット400は、該指令信号に基づいて動作する。
また、発光制御部154は、クロック信号に基づいて、発光制御信号をロボット400に対して送信する。ここで、発光制御信号は、図9の発光態様を示す信号である。第1LED421、第2LED422、および第3LED423は、該発光制御信号に基づいて発光する。このように、クロック信号に基づいて、第1LED421、第2LED422、および第3LED423を発光させ、かつロボット400を動作させることから、「第1LED421、第2LED422、および第3LED423の発光」と、「ロボット400(アーム406)の動作」とで同期をとることができる。
また、発光制御部154は、図9に示す発光パターン情報を比較部18に送信する。ロボット制御指令生成部204は、ロボット位置情報を比較部18に送信する。ロボット位置情報は、ロボット制御指令生成部204がロボット400に対して指令した各アームの位置情報(作業領域αにおける各アームの位置を示す情報)である。
また、ロボット位置特定部122は、カメラ4が撮像した撮像画像から、第1LED421、第2LED422、および第3LED423の発光に基づいて、アーム406の位置を特定(測定)する。ロボット位置特定部122はロボット位置特定情報を比較部18に送信する。ロボット位置特定情報は、各アームにけられた各LEDが実際に存在する位置(該各LEDの挙動)を示した情報(ロボット位置特定部122が特定した各LEDを示す情報)である。
また、発光パターン特定部124は、カメラ4が撮像した撮像画像から、各LEDの発光パターンを特定する。ここで、発光パターン特定部124は、発光パターンは特定できるものの、特定した発光パターンが各LEDのうちのどのLEDに対応するものであるかは特定できない。発光パターン特定部124とロボット位置特定部122とは、発光パターン特定情報と、該発光パターン特定情報から特定される発光パターンで発光しているLEDの挙動(ロボット位置特定情報)とを対応付けて比較部18に対して送信する。また、図3の第4特定部から出力されている「動作情報」は、ロボット位置特定情報と発光パターン特定情報とを含むものである。
比較部18は、発光制御部154からの発光パターン情報と、発光パターン特定部124からの発光パターン特定情報とを比較する。これにより、比較部18は実際の発光パターン(発光パターン特定部124により特定された発光パターン)に対応するLEDを認識することができる。比較部18は、実際の発光パターンがたとえば継続発光である場合には、該継続発光しているLEDが第1LED421であると認識する。同様に比較部18は、他のLEDである第2LED422および第3LED423を認識する。その後、比較部18は、認識した各LEDについて、ロボット位置特定情報と、ロボット位置情報とを比較して、該認識したLEDの挙動(位置情報)が一致しているか否かを判断する。該判断処理の一例として、比較部18は、ロボット位置特定情報を数値化したものと、ロボット位置情報を数値化したものとの差分を算出する。比較部18は、該差分が閾値未満であれば、双方の位置情報に差異がないと判断し、比較部18は、該差分が閾値以上であれば、双方の位置情報に差異があると判断する。
比較部18は、差異がありと判断した場合には、ロボット400への制御などに異常があるとして判断し、該異常がある旨を示す異常信号を報知装置109に送信する。報知装置109は、異常信号に基づいて、異常報知を実行する。たとえば、比較部18は、ロボットのアームの位置が異常である旨を判断した場合には、報知装置109は、「アームに異常あり」という表示を行う。また、比較部18により異常ありと判断されたロボットについては、動作を制限するようにしてもよい。このような構成によれば、ロボット400の各アームのうち少なくとも1のアームに異常があると判断された場合には、異常報知が実行される。したがって、作業者の安全性を担保することができる。
また、監視システム1は、動作エラーの有無を検出する対象のロボットを、合成領域600Bに含まれるロボットに限定するようにしてもよい。このような構成によれば、動作エラーの有無を検出する対象のロボットを、作業領域α内にある全てのロボットとする構成と比較して、動作エラーの有無を検出する処理を削減できる。また、監視システム1は、動作エラーの有無を検出する対象のロボットを、作業領域α内にある全てのロボットとしてもよい。このような構成によれば、作業領域α内に存在する作業者300の安全性を担保できる。
なお、ここで、ロボット400が固定されている場合について説明したが、移動可能であるロボットについても同様に動作エラーを検出可能である。
[座標変換パラメータについて]
次に、図13のS12でも説明した座標変換パラメータの算出手法の一例について説明する。センサ2の座標系とビジョンコントローラ120の座標系とのキャリブレーションを実行することにより、座標変換パラメータを算出することができる。座標変換パラメータは、第1特定部6が、センサ2により検出された作業者300の位置から、作業者可動領域300Aを特定するために用いるパラメータである。
図15は、座標変換パラメータの算出手法を説明するための図である。まず、作業領域α内に、原点用の参照マーカ601と、他点用の参照マーカ602、603、および604を配置する。また、参照マーカ601〜604それぞれに重畳するように、センサ2の検出対象を配置する。本実施形態では検出対象は、RFタグとする。参照マーカ601〜604それぞれに重畳するように、RFタグ3021、3022、3023、3024を配置する。なお、他点用の参照マーカは3つに限られず、他の個数、たとえば、3個以上としてもよい。
ビジョンコントローラ120は、他点用の参照マーカ602〜604を抽出することにより、第1参照平面H1を構築する。第1参照平面H1は、参照マーカ602〜604を含む平面である。さらに、ビジョンコントローラ120は、原点用の参照マーカ601を抽出することにより、第1参照平面H1における第1座標原点P1を特定する。
次に、セーフティコントローラ150は、他点用の参照マーカ602、603、および604それぞれに重畳するように配置されたRFタグ3022〜3024それぞれを検出したセンサ2から得られた検出情報(3次元位置情報)に基づいて第2参照平面H2を構築する。また、セーフティコントローラ150は、原点用の参照マーカ601に重畳するように配置されたRFタグ3021を検出したセンサ2から得られた検出情報(3次元位置情報)に基づいて第2座標原点P2を特定する。その後、監視装置100に含まれる監視装置(特に図示せず)は、第1参照平面H1、第1座標原点P1、第2参照平面H2および第2座標原点P2に基づいて、座標変換パラメータを算出する。該算出された座標変換パラメータは、所定の記憶領域(たとえば、RAM103)に格納される。
[変形例]
以上、本発明の実施例を図面により説明してきたが、本発明はこの実施例に限定されるものではない。本発明は、上記の実施例に限られず、種々の変形、応用が可能である。以下、本発明に適用可能な変形例などについて説明する。
[撮像画像について]
本実施形態では、カメラ4は、作業領域α内の全ての画像を撮像するとして説明した。本変形例では、カメラ4は、合成領域600Bの箇所のみを撮像する。図16は、本変形例の監視装置110の機能構成例を示した図である。図3と図16とを比較すると、ビジョンコントローラの構成が異なっている。本変形例(図16)のビジョンコントローラ121は、図3に示すビジョンコントローラ120内の設定部17が、カメラ指示部123に代替されている点で、図3と図16とは異なる。
カメラ指示部123は、作業者可動領域300Aとロボット占有領域400Aなどから合成領域600Bを求める。カメラ指示部123は、該合成領域600Bに限定してカメラ4の撮像させるための指示信号をカメラ4に対して送信する。カメラ4は、該指示信号に基づいて、合成領域600Bに限定して撮像する。指示信号は、カメラ4の位置、カメラのレンズの光軸の向き、カメラ4のピントなどを示した信号である。該撮像された撮像画像、つまり合成領域600Bに限定して撮像された撮像画像は、第2特定部8、第3特定部10、および第4特定部16に入力される。第2特定部8は、合成領域600Bに含まれるロボット400のロボット可動領域を特定する。第3特定部10は、合成領域600Bに含まれる作業者300の人体領域を特定する。第4特定部16は、合成領域600Bに含まれるロボット400の動作情報を特定する。以降の処理は、本実施形態と同様の処理であることから、説明を繰り返さない。
本変形例の構成によれば、合成領域600Bに限定して撮像することから、作業領域αの全ての領域を撮像する監視システムと比較して、カメラの台数を軽減できる。また、本変形例の構成によれば、合成領域が発生したときに、カメラ4は撮像することから、カメラ4が常時撮像する監視システムと比較して、撮像処理の負担を軽減できる。
[ロボットが移動可能である場合]
作業領域α内のロボットのうち少なくとも1のロボットが移動可能である場合にも、本願発明は、適用可能である。以下、図3を用いて説明する。
この場合には、センサ2は、移動可能ロボットの位置を検出する。該移動可能ロボットの位置を検出する手法として、たとえば、移動可能ロボットにRFタグを取り付け、センサ2が該RFタグを検出するようにすればよい。なお、作業者300に取り付けられたRFタグからの電波の周波数と、移動可能ロボットに取り付けられたRFタグからの電波の周波数とは、異ならせておくことが好ましい。これにより、監視システムは、作業者300と移動可能ロボットとの混同しないように明確に特定することができる。
その後、第1特定部6は、作業者可動領域を特定するとともに、移動可能ロボットのロボット占有領域を特定する。第1特定部6により特定された作業者可動領域およびロボット占有領域は設定部17に入力される。設定部17は、作業者可動領域とロボット占有領域との合成領域を特定する。以降の処理は、本実施形態と同様の処理であることから、説明を繰り返さない。
このような構成によれば、作業領域α内に、移動可能ロボットが存在している場合であっても、作業者300の安全性を担保できる。
[RFタグについて]
本実施形態では、センサ2が、作業者300の位置を特定するために、図1に示すように、作業者300にRFタグ302を取り付けるとして説明した。しかしながら、監視システム1が作業者300の位置を特定できるのであれば、他の手法を用いてもよい。図17は、作業者300の位置を特定するための他の手法を説明するための図である。図17の例では、発光するLED304を各作業者の一部に取り付ける。図17では、作業者が装着するヘルメットにLED304が取り付けられた例を示す。
また、該LED304の検出については、センサ2ではなく、カメラ4が行う。したがって、センサ2の処理をカメラ4に兼用させることができる。このような構成によれば、センサ2を備える必要がないことから、部品点数を削減できる。また、作業者300に取り付けられたLEDの発光態様と、移動可能ロボットに取り付けられたLEDの発光態様とは、異ならせておくことが好ましい。これにより、作業者300と移動可能ロボットとの混同しないように明確に特定することができる。また、作業者300の位置を特定できるのであれば、上述の手法に限らず、他の手法を用いるようにしてもよい。
[アームに取り付けられたLEDについて]
本実施形態では、図8に示したように、ロボット400のアーム406にLEDを取り付けるとして説明した。しかしながら、監視システム1がアーム406の位置を特定できるのであれば、他の手法を用いてもよい。本変形例では、アーム406に反射マーカを取り付けた例を説明する。反射マーカは、照明が当てられることにより、反射するマーカである。
図18は、アーム406の位置を特定するための他の手法を説明するための図である。図18では、第1アーム411、第2アーム412、および第3アーム413にそれぞれ第1反射マーカ481、第2反射マーカ482、および第3反射マーカ483が取り付けられた例を示す。
また、該反射マーカからの反射光を得るために、外部照明700が発光する。第1反射マーカ481、第2反射マーカ482、および第3反射マーカ483それぞれは、外部照明700からの光を、それぞれ異なるパターンで反射する。たとえば、第1反射マーカ481は青色で反射し、第2反射マーカ482は黄色で反射し、第3反射マーカ483は赤色で反射する。また、この反射態様(反射色)は、予めROM102に記憶されている。
第2特定部8は、合成領域600内の画像内において、ROM102に記憶されている反射態様に基づいて、第1アーム411、第2アーム412、および第3アーム413の動作を認識できる。
また、反射マーカの反射光が、カメラ4に対して回帰するように反射マーカを構成するようにしてもよい。また、反射マーカの反射光が、拡散するように反射マーカを構成するようにしてもよい。
また、本実施形態および本変形例では、第1アーム411、第2アーム412、および第3アーム413に取り付けられた各マーカの発光または反射の態様をパターンにより異ならせるとして説明した。反射の態様を異ならせる手法としては、パターンに限られず、他の要素を異ならせるようにしてもよい。他の要素とは、たとえば、周波数としてもよい。また、他の要素とは、色としてもよい。このような構成であっても、第2特定部8は第1アーム411、第2アーム412、および第3アーム413それぞれの位置を特定できる。
また、ロボット400に取り付けられているマーカの態様(たとえば、発光態様)と、作業者300に取り付けられているマーカの態様(たとえば、発光態様)とは異ならせることが好ましい。これにより、監視システムは、ロボット400および作業者300を見分けることができることから、安全性を担保できる。
[その他]
また、ロボットを監視する監視システムとして、安全柵、セーフティライトカーテン、セーフティレーザースキャナ、セーフティリミットスイッチなどを用いるものがある。しかし、防護領域が固定的で作業領域内のラインのレイアウト変更等に柔軟に対応できないという課題がある。これに対し、本発明は、安全柵、セーフティライトカーテンなどを用いずに、作業者の安全性を担保できることから、レイアウト変更に柔軟に対応できる。
また、センサを用いて、複数のロボットに対してそれぞれの周辺に3次元的に防護領域を構成しようとすると、複数のセンサを3次元的に複雑に配置して用いる必要がある。これに対し、本発明は、複数のロボットそれぞれにセンサを設けることなく、作業者の安全性を担保できることから、センサの配置の簡素化を図ることできる。
また、監視装置100における処理は、各ハードウェアおよびCPU101により実行されるソフトウェアによって実現される。このようなソフトウェアは、フラッシュメモリ104に予め記憶されている場合がある。また、ソフトウェアは、メモリカードその他の記録媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、ICカードリーダライタその他の読取装置によりその記録媒体から読み取られて、あるいは、通信IFを介してダウンロードされた後、フラッシュメモリ104に一旦格納される。そのソフトウェアは、CPU101によってフラッシュメモリ104から読み出され、さらにフラッシュメモリ104に実行可能なプログラムの形式で格納される。CPU101は、そのプログラムを実行する。
図2に示される監視装置100を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、フラッシュメモリ104、メモリカードその他の記録媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。
なお、記録媒体としては、DVD-ROM、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。
ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 監視システム、2 センサ、4 カメラ、6 第1特定部、8 第2特定部、10 第3特定部、12 測定部、14 制限部、16 第4特定部、17 設定部、18 比較部、100 監視装置、102 ROM、103 RAM、104 フラッシュメモリ、107 入力部、109 報知装置、120,121 ビジョンコントローラ、122 ロボット位置特定部、123 カメラ指示部、124 発光パターン特定部、150 セーフティコントローラ、154 発光制御部、200 ロボットコントローラ、202 制御クロック生成部、204 ロボット制御指令生成部、300 作業者。

Claims (8)

  1. 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視装置を含む監視システムであって、
    前記作業領域内に侵入した前記作業者の位置を検出する検出部と、
    前記検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、
    前記第1特定部で特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部と、
    前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域を設定する設定部と、
    前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、
    前記合成領域の画像から前記作業者の人体領域を特定する第3特定部と、
    前記第2特定部で特定された前記ロボット可動領域と、前記第3特定部で特定された前記人体領域との距離を測定する測定部と、
    前記測定部で測定された距離が、予め定められた距離以下となったときに、該ロボットの動きを制限する制限部とを備える、監視システム。
  2. 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視装置を含む監視システムであって、
    前記作業領域内に侵入した前記作業者の位置を検出する検出部と、
    前記検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、
    前記第1特定部で特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部とを備え、
    前記撮像部は、前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域に限定して撮像し、
    前記監視システムは、さらに、
    前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、
    前記合成領域の画像から前記作業者の人体領域を特定する第3特定部と、
    前記第2特定部で特定された前記ロボット可動領域と、前記第3特定部で特定された前記人体領域との距離を測定する測定部と、
    前記測定部で測定された距離が、予め定められた距離以下となったときに、該ロボットの動きを制限する制限部とを備える、監視システム。
  3. 前記第1特定部は、前記検出部で検出された前記作業者の位置に基づき特定される前記作業者可動領域から、前記作業者が存在し得ない領域を除外することにより、新たな前記作業者可動領域として特定する、請求項1または請求項2に記載の監視システム。
  4. 前記第2特定部は、前記ロボットの可動部分に設けられたマーカに基づき、前記ロボット可動領域を特定する、請求項1〜3のいずれか1項に記載の監視システム。
  5. 前記ロボットの可動部分に設けられたマーカに基づき、前記撮像部で撮像された画像から前記ロボットの可動部分の位置を特定する第4特定部と、
    前記第4特定部で特定した前記ロボットの可動部分の位置と、前記ロボットの制御部に入力された動作情報で示される動作とを比較する比較部とをさらに備える、請求項1〜4のいずれか1項に記載の監視システム。
  6. 前記ロボットは移動可能であり、
    前記検出部は、前記ロボットの位置を特定し、
    前記第1特定部は、前記検出部で検出した前記ロボットの位置に基づき前記ロボット占有領域を特定する、請求項1〜5のいずれか1項に記載の監視システム。
  7. 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視装置であって、
    前記作業領域内に侵入した前記作業者の位置を検出する検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定する第1特定部と、
    前記第1特定部で特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部で撮像された領域の画像から、前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域を設定する設定部と、
    前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定する第2特定部と、
    前記合成領域の画像から前記作業者の人体領域を特定する第3特定部と、
    前記第2特定部で特定された前記ロボット可動領域と、前記第3特定部で特定された前記人体領域との距離を測定する測定部と、
    前記測定部で測定された距離が、予め定められた値以下となったときに、該ロボットの動きを制限する制限部とを備える、監視装置。
  8. 作業者とロボットとが作業する作業領域内で、前記作業者が安全に作業できるように前記作業者および前記ロボットの動作を監視する監視方法であって、
    前記作業領域内に侵入した前記作業者の位置を検出する検出部で検出した前記作業者の位置に基づき前記作業者が可動する範囲を表す作業者可動領域を特定するステップと、
    特定した前記作業者可動領域と、前記ロボットの予め定められたロボット占有領域とを少なくとも含む領域を撮像する撮像部で撮像された領域の画像から、前記作業者可動領域と、前記作業者可動領域と少なくとも一部が重なる前記ロボット占有領域とを合成した合成領域を設定するステップと、
    前記合成領域の画像から前記ロボットの可動部分が可動する範囲を表すロボット可動領域を特定するステップと、
    前記合成領域の画像から前記作業者の人体領域を特定するステップと、
    前記ロボット可動領域と、前記人体領域との距離を測定するステップと、
    測定された距離が、予め定められた値以下となったときに、該ロボットの動きを制限するステップとを備える、監視方法。
JP2017025602A 2017-02-15 2017-02-15 監視システム、監視装置、および監視方法 Active JP6866673B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017025602A JP6866673B2 (ja) 2017-02-15 2017-02-15 監視システム、監視装置、および監視方法
CN201711133392.9A CN108426160B (zh) 2017-02-15 2017-11-15 监控系统、监控装置及监控方法
EP17202077.8A EP3363602B1 (en) 2017-02-15 2017-11-16 Monitoring system, monitoring device, and monitoring method
US15/818,756 US10452939B2 (en) 2017-02-15 2017-11-21 Monitoring system, monitoring device, and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017025602A JP6866673B2 (ja) 2017-02-15 2017-02-15 監視システム、監視装置、および監視方法

Publications (2)

Publication Number Publication Date
JP2018130793A JP2018130793A (ja) 2018-08-23
JP6866673B2 true JP6866673B2 (ja) 2021-04-28

Family

ID=60574370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017025602A Active JP6866673B2 (ja) 2017-02-15 2017-02-15 監視システム、監視装置、および監視方法

Country Status (4)

Country Link
US (1) US10452939B2 (ja)
EP (1) EP3363602B1 (ja)
JP (1) JP6866673B2 (ja)
CN (1) CN108426160B (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016100445A1 (de) * 2016-01-12 2017-07-13 Pilz Gmbh & Co. Kg Sicherheitseinrichtung und Verfahren zum Überwachen einer Maschine
US11000953B2 (en) * 2016-08-17 2021-05-11 Locus Robotics Corp. Robot gamification for improvement of operator performance
JP2018176397A (ja) * 2017-04-21 2018-11-15 オムロン株式会社 ロボットシステム
JP2018202504A (ja) * 2017-05-31 2018-12-27 ソニー株式会社 医療用支持アームシステム、医療用支持アームの制御方法、および医療用支持アームの制御装置
JP6748145B2 (ja) 2018-05-15 2020-08-26 ファナック株式会社 ロボットシステム
DE102018116371B4 (de) * 2018-07-06 2020-08-06 Sick Ag 3D-Sensor und Verfahren zum Überwachen eines Überwachungsbereichs
JP7144247B2 (ja) * 2018-09-03 2022-09-29 川崎重工業株式会社 ロボットの制御装置
JP6816077B2 (ja) * 2018-09-14 2021-01-20 ファナック株式会社 誘導情報提示装置、誘導情報提示サーバ、誘導情報提示システム、誘導情報提示方法及びプログラム
US11258987B2 (en) 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
JP6885909B2 (ja) * 2018-10-12 2021-06-16 ファナック株式会社 ロボット制御装置
JP7156397B2 (ja) * 2018-12-28 2022-10-19 京セラドキュメントソリューションズ株式会社 制御装置
US11951634B2 (en) * 2019-03-15 2024-04-09 Eid Robotics Oy System and a method for forming a controlled safety area for a manipulator
JP7012040B2 (ja) * 2019-03-28 2022-01-27 本田技研工業株式会社 動作領域制限方法、及びロボット制御装置
JP2020189367A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 ロボットシステム
JP7205972B2 (ja) * 2019-05-24 2023-01-17 川崎重工業株式会社 教示システム
US11815598B2 (en) 2019-06-10 2023-11-14 Microsoft Technology Licensing, Llc Anti-collision and motion monitoring, control, and alerting systems and methods
WO2021033241A1 (ja) * 2019-08-19 2021-02-25 オムロン株式会社 ロボット制御システム
CN110606084B (zh) * 2019-09-19 2020-12-18 中国第一汽车股份有限公司 巡航控制方法、装置、车辆及存储介质
CN113471119A (zh) * 2020-03-31 2021-10-01 芝浦机械电子装置株式会社 基板处理装置以及基板处理方法
KR102447386B1 (ko) * 2020-06-18 2022-09-23 아주대학교산학협력단 로봇 통합 실행 방법과 이를 이용한 로봇 안전 강화 방법 및 그 시스템
US11621068B2 (en) * 2020-09-11 2023-04-04 International Business Machines Corporation Robotic arm for patient protection
EP4001949A1 (en) * 2020-11-24 2022-05-25 The Boeing Company A system for proximity reporting in an assembly environment
WO2022172522A1 (ja) * 2021-02-15 2022-08-18 パナソニックIpマネジメント株式会社 侵入検出装置および侵入検出方法
CN117813810A (zh) * 2021-08-26 2024-04-02 松下电器(美国)知识产权公司 远程监视系统、异常检测系统、远程监视方法以及程序

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004029502A1 (de) 2002-09-24 2004-04-08 Pilz Gmbh & Co. Kg Verfahren und vorrichtung zum absichern eines gefahrenbereichs
US20100114373A1 (en) * 2008-10-31 2010-05-06 Camotion, Inc. Systems and methods for scanning a workspace volume for objects
JP4648486B2 (ja) * 2009-01-26 2011-03-09 ファナック株式会社 人間とロボットとの協調動作領域を有する生産システム
JP5343641B2 (ja) * 2009-03-12 2013-11-13 株式会社Ihi ロボット装置の制御装置及びロボット装置の制御方法
EP2553383B1 (en) 2010-03-31 2014-02-26 Omron Scientific Technologies, INC. Method and apparatus for generating texture in a three-dimensional scene
US9498289B2 (en) * 2010-12-21 2016-11-22 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
JP2013154457A (ja) * 2012-01-31 2013-08-15 Asahi Kosan Kk ワーク移載システム、ワーク移載方法及びプログラム
JP6018821B2 (ja) * 2012-07-09 2016-11-02 東京エレクトロン株式会社 クリーンルームの監視装置及びクリーンルームの監視方法
CN104428107B (zh) * 2012-07-10 2016-06-29 西门子公司 机器人布置和用于控制机器人的方法
EP2890529A2 (en) * 2012-08-31 2015-07-08 Rethink Robotics Inc. Systems and methods for safe robot operation
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP6171457B2 (ja) * 2013-03-25 2017-08-02 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
GB2540893A (en) * 2013-07-22 2017-02-01 Atlantic Inertial Systems Ltd DRIE lead silicon etching process
DE102013012839B4 (de) * 2013-08-02 2019-05-09 Abb Schweiz Ag Robotersystem
US9452531B2 (en) * 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
JP6402469B2 (ja) * 2014-04-04 2018-10-10 富士電機株式会社 安全制御装置および安全制御システム
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
EP3017920B1 (en) * 2014-11-07 2017-08-23 Comau S.p.A. An industrial robot and a method for controlling an industrial robot
JP2016151897A (ja) * 2015-02-17 2016-08-22 株式会社安川電機 移動体制御装置および移動体制御方法
JP6034895B2 (ja) * 2015-02-20 2016-11-30 ファナック株式会社 外力に応じてロボットを退避動作させる人間協調ロボットシステム
JP2016159367A (ja) * 2015-02-26 2016-09-05 ファナック株式会社 ロボットの動作モードを自動的に切替えるロボット制御装置
US9857786B2 (en) * 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
JP6659231B2 (ja) * 2015-04-08 2020-03-04 富士電機株式会社 生産ライン監視システム
CN105150210B (zh) * 2015-05-13 2017-05-24 西北工业大学 一种用于遥操作人机交互的虚拟管道动态避障控制方法
CN105912530A (zh) * 2016-04-26 2016-08-31 北京光年无限科技有限公司 面向智能机器人的信息处理方法及系统
US10186130B2 (en) * 2016-07-28 2019-01-22 The Boeing Company Using human motion sensors to detect movement when in the vicinity of hydraulic robots
EP4088891A1 (en) * 2017-02-07 2022-11-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control
US10252420B2 (en) * 2017-06-09 2019-04-09 Precise Automation, Inc. Collaborative robot

Also Published As

Publication number Publication date
CN108426160B (zh) 2021-02-05
JP2018130793A (ja) 2018-08-23
EP3363602B1 (en) 2020-12-16
US20180232593A1 (en) 2018-08-16
CN108426160A (zh) 2018-08-21
EP3363602A1 (en) 2018-08-22
US10452939B2 (en) 2019-10-22

Similar Documents

Publication Publication Date Title
JP6866673B2 (ja) 監視システム、監視装置、および監視方法
US20200333789A1 (en) Information processing apparatus, information processing method, and medium
US10379513B2 (en) Monitoring system, monitoring device, and monitoring method
US11174989B2 (en) Sensor arrangement and method of securing a monitored zone
US10521625B2 (en) Safety control device, method of controlling safety control device, and recording medium
CN111226178B (zh) 监视设备、工业系统、用于监视的方法及计算机程序
JP6479264B2 (ja) 協働ロボットシステム、及びその制御方法
US9615064B2 (en) Tracking moving objects using a camera network
US10404971B2 (en) Optoelectronic sensor and method for safe detection of objects of a minimum size
JP6080969B2 (ja) 対象物の姿勢を決定するための方法と装置
JP2020511325A (ja) 作業空間安全監視および機器制御
JP2008033819A (ja) 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
CN114585875A (zh) 计量系统
JP7282186B2 (ja) 状況認識監視
JP7280852B2 (ja) 人物検知システム、人物検知プログラム、学習済みモデル生成プログラム及び学習済みモデル
JP7310297B2 (ja) 作業ロボットおよびその制御方法
JP2010122904A (ja) 自律移動ロボット
JP2016214937A (ja) 計測システムおよびコンピュータプログラム
JP4111959B2 (ja) 距離計測システム
KR101907875B1 (ko) 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법
US20230196495A1 (en) System and method for verifying positional and spatial information using depth sensors
IES20160070A2 (en) Monitoring system
KR20240045677A (ko) 로봇과의 안전한 협업 보조 방법 및 장치
JP2016214545A (ja) 計測システム、被験体の呼吸に起因する生体活動の計測方法およびコンピュータプログラム
JP2023133837A (ja) センサシステムおよびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6866673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250