JP2018195959A - 監視領域を分割した空間領域を監視する監視装置 - Google Patents

監視領域を分割した空間領域を監視する監視装置 Download PDF

Info

Publication number
JP2018195959A
JP2018195959A JP2017097803A JP2017097803A JP2018195959A JP 2018195959 A JP2018195959 A JP 2018195959A JP 2017097803 A JP2017097803 A JP 2017097803A JP 2017097803 A JP2017097803 A JP 2017097803A JP 2018195959 A JP2018195959 A JP 2018195959A
Authority
JP
Japan
Prior art keywords
area
monitoring
region
space
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017097803A
Other languages
English (en)
Other versions
JP6416980B1 (ja
Inventor
祐輝 高橋
Yuki Takahashi
祐輝 高橋
渡邉 淳
Atsushi Watanabe
淳 渡邉
中村 稔
Minoru Nakamura
稔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017097803A priority Critical patent/JP6416980B1/ja
Priority to US15/958,133 priority patent/US10482322B2/en
Priority to CN201810421519.5A priority patent/CN108958097B/zh
Priority to DE102018003762.3A priority patent/DE102018003762A1/de
Application granted granted Critical
Publication of JP6416980B1 publication Critical patent/JP6416980B1/ja
Publication of JP2018195959A publication Critical patent/JP2018195959A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0428Safety, monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24024Safety, surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Studio Devices (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機器の配置の設定および制御が容易な監視装置を提供する。【解決手段】監視装置は、3次元の画像を取得するカメラ23と、カメラ23の出力信号の処理を行う画像処理装置とを備える。カメラ23の撮像領域61の一部が監視領域62に定められている。画像処理装置は、監視領域62を分割して複数の空間領域を設定する領域設定部を含む。領域設定部は、カメラ23を始点として放射状に延びる複数の切断面71,72にて監視領域62を分割する。領域設定部は、矢印81に示す方向において、一方の端部の空間領域を警戒領域63に設定し、他方の端部の空間領域を制限領域64に設定する。【選択図】図4

Description

本発明は、監視領域を分割した空間領域を監視する監視装置に関する。
従来の技術においては、カメラにて画像を撮像し、得られた画像に基づいて撮像された領域の監視を行う監視装置が知られている。監視装置は、撮影した画像を処理したり、複数の画像を比較したりすることにより、撮像した範囲に存在する物体の監視を行うことができる。
このような監視装置では、ビデオカメラまたは2次元カメラを備えることができる。監視装置は、カメラにて撮像した画像を処理することにより、所定の領域に人が進入することを検出することができる(例えば、特開2003−143593号公報および特開2015−75879号公報参照)。または、監視装置は、ロボットのアームなどの動く装置の動作状況を監視することができる(例えば、特開平5−261692号公報参照)。
特開2003−143593号公報 特開2015−75879号公報 特開平5−261692号公報
監視装置では、予め定められた領域への物体の進入を検出することができる。例えば、製造工場などでは、作業者が通行しても良い領域と、作業者の進入が制限される製造装置等の作業領域とが設定される。作業領域は、作業者が進入して製造装置に接触しないように設定される領域である。作業領域は、例えば、ロボットなどの製造装置の周りに設定される。監視装置は、このような作業領域と作業者が通行しても良い領域との境界の部分を監視することができる。
作業領域への進入の検出には、ライトカーテンまたは2次元レーザスキャナを用いることができる。ライトカーテンまたは2次元レーザスキャナは、作業領域の境界を監視するように配置することができる。
ところで、監視装置が監視している領域において、搬送の為に物体が通過する場合がある。たとえば、加工後のワークが監視装置により監視される領域を通過する場合がある。この場合に、ワークが問題なく通過するように、ライトカーテン等を備える監視装置は、ミューティング機能を備えることができる。ミューティング機能は、ワークが通過する期間中に、ワークが通過する領域の監視を停止する機能である。しかしながら、ミューティング機能を実施するためには、ワークの通過を確認するために、光電センサ等の別の装置が必要になる。
ミューティング機能を作動している場合に、ライトカーテンまたは2次元レーザスキャナにて監視する領域は監視すべき領域の一部になる。ライトカーテンまたは2次元レーザスキャナが監視している領域以外の領域から作業者等が作業領域に進入する場合がある。このために、ライトカーテンおよび2次元レーザスキャナ等の機器を取り付ける位置が難しかったり、監視装置の制御が複雑になったりする。
本開示の一態様の監視装置は、3次元の画像を取得する3次元カメラと、3次元カメラの出力信号の処理を行う画像処理装置とを備える。3次元カメラの撮像領域の一部が監視を行う監視領域に定められている。画像処理装置は、監視領域を分割して複数の空間領域を設定する領域設定部を含む。領域設定部は、3次元カメラを始点として放射状に延びる複数の切断面にて監視領域を分割し、予め定められた方向の一方の端部の空間領域を第1の空間領域に設定し、予め定められた方向の他方の端部の空間領域を第2の空間領域に設定する。
本開示の一態様によれば、機器の配置の設定および制御が容易な監視装置を提供することができる。
実施の形態におけるロボットシステムの概略平面図である。 実施の形態におけるロボットシステムの概略部分断面図である。 実施の形態におけるロボットシステムのブロック図である。 監視領域および空間領域を説明する側面図である。 監視領域および空間領域を説明する斜視図である。 監視領域を分割した空間領域を説明する斜視図である。 カメラにて撮像された画像の例である。 カメラ、ワーク、およびコンベアの拡大側面図である。 カメラ、ワーク、およびコンベアの他の拡大側面図である。 物体の異常な移動方向を検出する制御のフローチャートである。 実施の形態において許容される空間領域の状態の変化を説明する図である。 実施の形態において許容されない空間領域の状態の変化を説明する第1の図である。 実施の形態において許容されない空間領域の状態の変化を説明する第2の図である。 監視領域の他の分割方法を説明する側面図である。
図1から図14を参照して、実施の形態における監視装置について説明する。本実施の形態の監視装置は、予め定められた作業を行うロボットを備えるロボットシステムに配置されている。監視装置は、予め定められた監視領域の状態を監視する。
図1は、本実施の形態におけるロボットシステムの概略図である。図2に、本実施の形態のロボットシステムの部分断面図を示す。図2は、図1におけるA−A線に関する矢視断面図である。図3に、本実施の形態のロボットシステムのブロック図を示す。図1から図3を参照して、本実施の形態のロボットシステムは、予め定められた作業を行うロボット11と、ロボット11を制御するロボット制御装置12とを備える。
ロボット11には、エンドエフェクタとしてのハンド13が連結されている。本実施の形態のロボット11は、コンベア14にて搬送されたワーク19に対して部品の取付けを行う。コンベア14は、矢印81に示す方向にワーク19を搬送する。ロボットの作業は部品の取付けに限られず、任意の作業を行うことができる。例えば、ロボットが行う作業には、ワークの向きの変更、溶接、および塗装等が含まれる。エンドエフェクタは、ロボットが行う作業に応じた装置が選定される。
ロボット制御装置12は、例えば、バスを介して互いに接続されたCPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)等を備える演算処理装置(デジタルコンピュータ)にて構成されている。ロボット制御装置12は、ロボット11およびハンド13に対して動作指令を送出する。
ロボット11の周りには、ロボット11が作業する領域として作業領域67が予め設定されている。作業領域67には、作業者の接近が制限されている装置が配置される。作業領域67は、安全のために設定され、作業者の進入を制限する領域である。作業領域67は、例えば、ロボット11が作業を行う時に作業者18または搬送車等がロボット11に接触しないように設定されている。本実施の形態においては、ロボット11の周りに、作業領域67を区画する柵15が配置されている。また、柵15が配置されていない出口部16が形成されている。コンベア14は、出口部16を通るように配置されている。ワーク19は、出口部16を通って作業領域67から搬出される。
作業者18は、出口部16から柵15にて囲まれる作業領域67に進入することができる。しかしながら、ロボット11が駆動している期間中には、作業者18は作業領域67に進入しないことが好ましい。
本実施の形態におけるロボットシステムは、監視装置21を備える。監視装置21は、ロボット11が駆動している期間中に、作業者18が出口部16から作業領域67に進入することを検出する。また、監視装置21は、ワーク19が作業領域67から搬出されることを検出する。本実施の形態においては、ロボット11が駆動している期間中に作業者18が作業領域67に進入した場合に、ロボット制御装置12は、ロボット11およびハンド13を停止する制御を実施する。
監視装置21は、作業者18に物体の移動を通知する通知装置としての表示灯29を備える。表示灯29は、所定の色にて発光するように形成されている。表示灯29は、支持部材30により支持されている。表示灯29は、作業者18が見ることができる位置に配置されている。本実施の形態の表示灯29は、出口部16の近傍に配置されている。
本実施の形態における監視装置21は、予め定められた領域の画像を撮像するカメラ23を含む。カメラ23は、3次元の画像を取得する3次元カメラである。本実施の形態のカメラ23は、カメラ23のレンズ中心点24から撮像する物体までの距離の情報を含む距離画像を得ることができる。
本実施の形態のカメラ23は、光飛行時間方式により距離画像を撮像するカメラであり、TOF(Time of Flight)カメラとも称される。カメラ23は、画素センサを含んでいる。画素センサとしては、距離画像を撮像できる任意の画素センサを採用することができる。例えば、画素センサとして、CMOS(Complementary Metal Oxide Semiconductor)センサを用いることができる。監視装置21は、カメラ23が撮像する領域に向けて光を発する光源25を含む。光源25は、カメラ23が撮像する時に発光する。カメラ23は、光源25から光を発した後に、対象物の表面にて反射した光を画素センサにて受光する。
カメラ23は、柵15に固定された支持部材28に支持されている。カメラ23は、出口部16を撮像できるように配置されている。本実施の形態のカメラ23は、出口部16の真上から出口部16の全体を撮像できるように配置されている。
監視装置21は、カメラ23の出力信号の処理を行う画像処理装置22を備える。画像処理装置22は、CPU、ROM、およびRAM等を含む演算処理装置(デジタルコンピュータ)にて構成することができる。画像処理装置22は、ロボット制御装置12と互いに通信できるように形成されている。
画像処理装置22は、カメラ23および光源25を制御する撮像制御部33を備える。撮像制御部33は、カメラ23に撮像する指令を送出する。撮像制御部33は、カメラ23にて撮像する時に複数回の光を発光するように光源25を制御する。
画像処理装置22は、カメラ23の画像を処理するときの情報を記憶する記憶部37を含む。記憶部37は、例えば、距離画像を判定するときの距離の判定範囲および判定結果を記憶する。画像処理装置22は、カメラ23の画像に関する情報を表示する表示部38を含む。表示部38は、液晶表示パネル等により構成されている。表示部38は、撮像された距離画像を表示することができる。また、表示部38は、警告および判定範囲などを表示することができる。
画像処理装置22は、光の飛行時間に基づいてカメラ23の出力信号から距離画像を生成する距離画像生成部31を含む。距離画像には、物体までの奥行きの情報が含まれる。例えば、距離画像には、カメラ23のレンズ中心点24から撮像した対象物までの距離の情報が含まれる。距離の情報は、例えば、画素センサの画素ごとに作成される。距離画像生成部31は、光の伝播時間を算出し、カメラ23から画像に写っている物体までの距離を算出する。距離画像生成部31は、光源25から発した光がカメラ23に戻るまでの時間を計測する。距離画像生成部31は、例えば光の位相差を検出し、光が物体の表面で反射して戻るまでの時間を算出する。距離画像生成部31は、測定した時間と光の速さとに基づいて、対象物までの距離を算出することができる。このように、距離画像生成部31は、カメラ23の画素センサにて生成された信号を受信して、距離画像を作成する。また、距離画像生成部31は、画像に含まれる物体の任意の測定点までの距離に基づいて、測定点の位置を算出しても構わない。
画像処理装置22は、カメラ23にて撮像した距離画像の処理を行う演算処理部35を含む。演算処理部35は、距離画像生成部31にて生成された距離画像を取得する画像取得部41を含む。
図4に、本実施の形態における監視装置にて監視を行う領域を説明する側面図を示す。図4では、コンベア14および柵15等を除いた図が示されている。図5に、本実施の形態における監視を行う領域を説明する斜視図を示す。図3から図5を参照して、本実施の形態のカメラ23は、床面51に向かう様に配置されている。カメラ23は、カメラ視線が鉛直方向の下向きになるように配置されている。
カメラ23は、撮像領域61を撮像することができる。撮像領域61は、カメラ23のレンズ中心点24から放射状に広がるように設定される。本実施の形態の撮像領域61は、四角錐状になる。撮像領域61の形状としては、この形態に限られず、任意の形状を採用することができる。例えば、撮像領域が円錐状になるカメラを採用しても構わない。
撮像領域61の一部には、物体の監視を行う監視領域62が設定されている。監視領域62は、立体的な形状を有する空間領域である。本実施の形態の監視領域62は、直方体状に形成されている。監視領域62の形状は、直方体に限られず、任意の形状を採用することができる。監視領域62は、作業領域67の内側と外側の境界の少なくも一部を含むように設定されている。監視領域62の内部には、監視の対象となる部分である出口部16が含まれる。監視領域62は、内部にワーク19が配置できるように広く設定される。本実施の形態の監視領域62の高さは、柵15の高さと同じである。監視領域62の大きさは、この形態に限られず、任意の大きさに設定することができる。監視領域62の範囲は作業者により予め設定されて、記憶部37に記憶されている。
演算処理部35は、監視領域62を分割して複数の空間領域を設定する領域設定部42を含む。本実施の形態の領域設定部42は、監視領域62を3つの空間領域に分割する。領域設定部42による監視領域62の分割方法は、予め定められており、記憶部37に記憶されている。
本実施の形態の領域設定部42は、第1の空間領域としての警戒領域63、第2の空間領域としての制限領域64、および第3の空間領域としての中間領域65を設定している。警戒領域63および制限領域64は、監視領域62の境界面を含む境界領域である。図2を参照して、警戒領域63は、柵15の外側に配置されている。すなわち、警戒領域63は、作業領域67の外側に配置されている。
制限領域64は、柵15に囲まれる作業領域67に配置される。制限領域64は、作業者の進入を制限する領域である。本実施の形態では、ロボット11が駆動している期間中に作業者の進入が禁止される領域である。制限領域64は、柵15の内側に配置されている。
中間領域65は、警戒領域63と制限領域64との間の領域である。本実施の形態において、中間領域65は、コンベア14にてワーク19が搬送されてきたときに、ワーク19が内部に配置されるように大きく形成されている。中間領域65は、距離画像において中間領域65よりもワーク19が小さくなるように設定されている。
図6に、領域設定部により分割された空間領域を説明する斜視図を示す。図6においては、矢印82に示すように、分割された空間領域を互いに離して記載している。図3から図6を参照して、領域設定部42は、カメラ23を始点として放射状に延びる複数の切断面にて監視領域62を分割する。本実施の形態においては、カメラ23のレンズ中心点24を始点として放射状に延びる切断面を採用している。
例えば、レンズ中心点24から床面51に向かって延びる平面状の切断面71が設定されている。切断面71は、レンズ中心点24と、監視領域62の底面の頂点66a,66bとを通る平面である。切断面71により、警戒領域63と中間領域65との境界面が設定されている。また、レンズ中心点24から床面51に向かって延びる平面状の切断面72が設定されている。切断面72は、レンズ中心点24と、監視領域62の底面の頂点66c,66dとを通る平面である。切断面72により、中間領域65と制限領域64との境界面が設定されている。また、レンズ中心点24から床面51に向かって延びる平面状の切断面70が設定されている。切断面70は、レンズ中心点24と、監視領域62の底面の頂点66a,66cとを通る平面である。切断面70により、中間領域65と警戒領域63との境界面および中間領域65と制限領域64との境界面が設定されている。その他の空間領域同士の間の境界面も、レンズ中心点24から放射状の延びる切断面によって設定される。なお、切断面78は、警戒領域63と制限領域64との境界面である。切断面78は、作業領域67と作業領域67の外側の領域との境界面上に設定されている。
第1の空間領域としての警戒領域63は、矢印81の方向の一方の端部の空間領域である。第2の空間領域としての制限領域64は、矢印81の方向の他方の端部の空間領域である。第1の空間領域および第2の空間領域は、予め定められた方向の端部の空間領域である。第1の空間領域および第2の空間領域は、監視領域62の境界面を含む。このように、領域設定部42は、複数の切断面に基づいて監視領域62を切断し、複数の空間領域を設定することができる。なお、本実施の形態の切断面は平面であるが、この形態に限られず、切断面は曲面であっても構わない。
本実施の形態の監視装置21は、それぞれの空間領域において、ワーク19または作業者18等の物体が存在しているか否かを判定する。演算処理部35は、カメラ23にて撮像した距離画像に基づいて、複数の空間領域の状態を判定する判定部43を含む。判定部43は、距離画像に基づいて、監視領域62の状態、警戒領域63の状態、制限領域64の状態、および中間領域65の状態を判定する。
本実施の形態における判定部43は、それぞれの空間領域において、監視の対象となる物体が存在しているか否かを判定する領域判定部44を含む。図2に示す状態では、領域判定部44は、制限領域64に物体が存在していることを判定する。
図7に、カメラにて撮像された距離画像の例を示す。図7では、物体の境界が線にて記載されている。カメラ23から見た画像では、一点透視により得られる画像となる。このために、柵15の頂面15aおよび側面15bが写されている。撮像領域61は距離画像の外側の輪郭69に対応する。距離画像においては、監視領域62に対応する画像領域62aが設定される。警戒領域63に対応する画像領域63aが設定される。また、制限領域64に対応する画像領域64aが設定される。さらに、中間領域65に対応する画像領域65aが設定される。監視領域62は、出口部16の大きさに対応して形成されている。
図8に、空間領域およびワークの拡大側面図を示す。図8に示す例では、監視領域62の内部にワーク19の一部が配置されている。ワーク19は、制限領域64と中間領域65に配置されている。図3、図7および図8を参照して、領域判定部44は、それぞれの空間領域において、物体が存在しているか否かを判定する。本実施の形態においては、それぞれの空間領域に対応する画像領域62a,63a,64a,65aにおいて、複数の測定点が設定される。そして、画像領域62a,63a,64a,65aに写されている物体の測定点について、カメラ23から物体の測定点までの距離の判定範囲が予め定められている。より詳細には、それぞれの画像領域62a,63a,64a,65aに対応する画素センサの画素に対して、距離の判定範囲が予め定められている。画素に対応する空間領域および距離の判定範囲は、それぞれの画素ごとに設定されている。
例えば、矢印83に示す方向は、1つの画素に対応する。ここで、測定点76は警戒領域63に含まれるが、測定点77は警戒領域63に含まれない。レンズ中心点24から測定点までの距離は、距離画像から得ることができる。領域判定部44は、レンズ中心点24からの距離が判定範囲DR1に含まれる場合には、測定点は警戒領域63に含まれると判定する。ここでの例では、判定範囲DR1は、距離d1以上距離d2以下の範囲である。測定点76は、判定範囲DR1に含まれるために、警戒領域63に物体が存在していると判定される。測定点77は、判定範囲DR1の外側に配置されるために、警戒領域63に物体が存在していないと判定される。
図8に示されるワーク19の検出においては、ワーク19の表面に複数の測定点が設定される。これらの測定点のうち、例えば測定点75が判定される。測定点75に対応する画素について、制限領域64の判定範囲DR2が予め定められている。矢印84に示すレンズ中心点24から測定点75までの距離は、判定範囲DR2に含まれている。このために、領域判定部44は、制限領域64に物体が存在していると判定する。警戒領域63および中間領域65に物体が存在するか否かの判定においても同様の制御により実施することができる。また、検出される物体は、ワーク19に限られず、作業者18および搬送車等の他の物体も含まれる。
このように、領域判定部44は、距離画像から物体の表面の測定点までの距離を取得して、測定点までの距離が予め定められた判定範囲内である場合に、画像領域に対応する空間領域の内部に物体が存在すると判定する。本実施の形態の領域判定部44は、物体の少なくとも一部が空間領域に存在するときに、その空間領域に物体が存在すると判定している。
ところで、距離画像には、監視の対象となる物体の他にも様々な物体が含まれる。本実施の形態の監視の対象となる物体は、ワーク19および作業者18である。たとえば、図8に示す例においては、それぞれの空間領域にコンベア14が配置されている。判定範囲を設定する場合には、監視の対象となる物体以外の物体を避けて設定することができる。例えば、図8の判定範囲DR2に示す様に、コンベア14を避けて判定範囲を設定することができる。
このような判定範囲の設定においては、カメラ23は、監視の対象となる物体が配置されていない状態の距離画像を予め撮像することができる。この距離画像を基準画像に設定することができる。基準画像には、柵15およびコンベア14の形状の情報に加えて、柵15までの距離、コンベア14までの距離、および床面51までの距離の情報が含まれる。作業者は、それぞれの部材までの距離と設定される空間領域の境界面とに基づいて、距離の判定範囲を設定することができる。
または、領域判定部44は、監視の対象となる物体が距離画像に写っているか否かを判定しても構わない。記憶部37は、監視の対象となる物体を含まない距離画像を基準画像として記憶することができる。カメラ23が画像を撮像した後に、領域判定部44は、今回の距離画像と基準画像とを比較することにより、基準画像に含まれていない物体を検出することができる。この検出において、領域判定部44は、物体の輪郭または物体までの距離を用いることができる。そして、領域判定部44は、基準画像に含まれていない物体を監視の対象となる物体と判定することができる。領域判定部44は、この物体について、それぞれの空間領域に存在しているか否かの判定を行うことができる。この場合の判定範囲は、判定範囲DR1に示す様に、予め配置されているコンベア等の機器は考慮せずに、それぞれの空間領域の境界面に基づいて設定することができる。
図9に、他の判定範囲を説明するカメラ、ワーク、およびコンベアの拡大側面図を示す。上記の実施の形態においては、監視領域62の内部の空間に配置されるように判定範囲が設定されているが、この形態に限られない。例えば、カメラ23と監視領域62との間を物体52が通過する場合がある。この場合に、通過する物体52に監視領域62が遮られて、監視領域62の内部に物体が存在するか否かを正確に判定することができない場合がある。そこで、図9に示す例では、判定範囲の始点をレンズ中心点24に設定している。例えば、警戒領域63に関連して、レンズ中心点24から監視領域62の境界までの範囲を判定範囲DR3に設定している。また、制限領域64に関連して、レンズ中心点24からコンベア14までの範囲を判定範囲DR4に設定している。
領域判定部44は、レンズ中心点24から測定点までの距離が判定範囲内である場合に、測定点に対応する空間領域の内部に物体が存在すると判定することができる。この制御により、カメラ23と監視領域62との間に物体が存在して所望の空間領域が死角になった場合にも、安全に評価を行うことができる。例えば、カメラ23と監視領域62との間を物体52が通過している時に、警戒領域63の一部が死角になる。しかしながら、領域判定部44は、測定点79までの距離が判定範囲DR3内であることを検出した場合に、警戒領域63に物体が存在すると判定することができる。このように、判定範囲は、カメラ23を配置する位置および監視領域の設定方法に応じて、任意に設定することができる。
図8を参照して、本実施の形態においては、3次元カメラから物体の測定点までの距離として、レンズ中心点24から物体の測定点までの距離を採用しているが、この形態に限られない。3次元カメラから物体の測定点までの距離としては、矢印85に示す様に、レンズ中心点24を通る平面74から測定点75までの距離を採用していても構わない。この場合に、平面74は、カメラ23の視線に対して垂直な方向に延びる平面である。
本実施の形態では、カメラ23を始点として放射状に延びる切断面にて監視領域62を分割した空間領域を設定している。このために、領域判定部44は、物体の表面までの距離を判定範囲と比べることにより、物体が空間領域に存在するか否かを判定することができる。領域判定部44は、それぞれの空間領域に物体が存在するか否かを容易に判定することができる。
本実施の形態では、領域判定部44は、物体が存在するか否かを警戒領域63および制限領域64において判定する。さらに、領域判定部44は、監視領域62の内部に物体が存在するか否かを判定する。監視領域62の判定においては、監視領域62に関する距離の判定範囲を設けて判定を行うことができる。または、領域判定部44は、中間領域65に関する距離の判定範囲を設定し、中間領域65に物体が存在しているか否かを判定することができる。そして、警戒領域63、中間領域65、および制限領域64のいずれかの領域に物体が存在している場合に、領域判定部44は、監視領域62に物体が存在していると判定しても構わない。
次に、判定部43は、物体が移動する方向を判定する。図1および図3を参照して、判定部43は、第1の空間領域における物体の存在の状態、第2の空間領域における物体の存在の状態、および第3の空間領域における物体の存在の状態に基づいて、物体の移動方向が正常か否かを判定する移動判定部45を含む。空間領域における物体の存在の状態は、空間領域に物体が存在しているか否かの判定結果に相当する。
移動判定部45は、矢印81に示すように、物体が作業領域67の内部から外部に搬出されることを許容する。移動判定部45は、柵15の内側の領域から柵15の外側の領域に物体が移動することを許容する。すなわち、移動判定部45は、制限領域64から警戒領域63に向かう物体の移動は、正常であると判定する。例えば、ワーク19が作業領域67から搬出される場合には、移動判定部45は正常な物体の移動であると判定する。
これに対して、移動判定部45は、柵15の外側から柵15の内側の作業領域67に物体が進入すると、異常であると判定する。移動判定部45は、警戒領域63から制限領域64に向かって物体が移動している場合に異常であると判定する。例えば、作業者18が出口部16から柵15の内側に進入した場合に、移動判定部45は異常であると判定する。
演算処理部35は、他の装置に情報を送信する送信部48を含む。移動判定部45は、警戒領域63から制限領域64に向かう物体の移動を検出した場合に異常と判定する。次に、送信部48は、作業者の接近が制限されている装置を停止する指令を発信する。本実施の形態において、送信部48は、ロボット制御装置12に対してロボット11およびハンド13を停止する指令を送出する。ロボット制御装置12は、ロボット11およびハンド13を停止する。
図10に、本実施の形態におけるロボットシステムの制御を説明するフローチャートを示す。図10に示す制御は、予め定められた時間間隔ごとに繰り返して実施することができる。図10および図3を参照して、ステップ90において、カメラ23は、監視領域62を撮像する。ステップ91において、距離画像生成部31は、距離画像を生成する。ステップ92において、領域判定部44は、それぞれの空間領域に物体が存在するか否かを判定する。ここでは、領域判定部44は、監視領域62、警戒領域63、および制限領域64のそれぞれの空間領域に物体が存在するか否かを判定する。ステップ93において、記憶部37は、今回の距離画像を記憶する。また、記憶部37は、それぞれの空間領域において物体が存在するか否かを記憶する。
次に、ステップ94においては、移動判定部45は、前回に撮像した距離画像および今回に撮像した距離画像において、少なくも一つの空間領域に物体が存在するか否かを判定する。すなわち、移動判定部45は、監視領域62、警戒領域63、および制限領域64の少なくとも1つの空間領域に物体が存在しているか否かを判定する。この制御が1回目の場合には、前回の距離画像として基準画像を採用することができる。移動判定部45は、基準画像では、全ての空間領域に物体が存在していないと判定する。
ステップ94において、全ての空間領域において物体が存在しない場合には、制御は、ステップ98に移行する。この場合には、ワーク19の搬出または作業者18の進入がないと判定することができる。ステップ98においては、表示灯29を消灯する。表示灯29が既に消灯している場合には、消灯している状態を維持する。次に、この制御を終了する。ステップ94において、前回の距離画像および今回の距離画像において、少なくとも一つの空間領域に物体が存在する場合には、制御はステップ95に移行する。
ステップ95において、移動判定部45は、それぞれの空間領域の状態の変化を検出する。移動判定部45は、今回の撮像における物体の存在の状態と、前回の撮像における物体の存在の状態とを取得する。例えば、移動判定部45は、所定の空間領域において、物体が無い状態から物体が有る状態に変化したか、物体が有る状態から物体が無い状態に変化したか、または、物体の存在の状態について変化がないか、について検出する。そして、ステップ96において、移動判定部45は、空間領域の状態の変化が許容されるか否かを判定することにより、物体の移動方向が正常か否かを判定する。
図11に、許容される空間領域の状態の変化の説明図を示す。図11は、ワーク19が作業領域67から搬出されるときのそれぞれの空間領域の状態の変化を示している。状態101においては、制限領域64、監視領域62、および警戒領域63において、物体が検出されない状態である。次の状態102においては、ワーク19が移動して、ワーク19の少なくとも一部が制限領域64に存在している。状態102は、例えば、図8に示すワーク19の一部が中間領域65および制限領域64に配置されている状態である。この状態では、制限領域64と監視領域62において物体が存在していると判定される。
更に、ワーク19が進行すると、状態103において、中間領域65の内部に物体が存在する状態になる。状態103では、制限領域64および警戒領域63には物体が存在しないと判定される。状態103は、例えば、図7に示すように、中間領域65の内部にワーク19が配置されている状態である。
更にワーク19が進行すると、状態104になる。状態104においては、監視領域62および警戒領域63に物体が存在し、制限領域64に物体が存在しない状態になる。更に、ワーク19が進行すると、状態105に示すように、3つの全ての空間領域において、物体は存在しない状態になる。
前回の空間領域の状態から今回の空間領域の状態への変化が、図11に含まれる連続する2つの状態の変化に対応したときに、移動判定部45は、物体が作業領域67から外側に向かって移動していると判定する。移動判定部45は、物体の移動方向が正常であると判定する。または、前回の空間領域の状態から今回の空間領域の状態への変化が無い場合に、移動判定部45は、物体の移動方向が正常であると判定する。例えば、前回の距離画像における状態が状態101であり、今回の距離画像における状態も状態101である場合には、移動判定部45は、物体の移動方向は正常であると判定する。図11に示される正常な状態の変化のパターンについては、予め記憶部37に記憶されている。
図12は、空間領域の状態の変化が異常である第1の例を示している。状態101は、3つの空間領域において物体が存在しない状態である。次の状態111は、監視領域62および警戒領域63に物体が存在し、制限領域64に物体が存在しない状態である。状態101から状態111への変化では、物体が作業領域67の外側から内側に向かって進入していると判定することができる。すなわち、図11に示す様に、状態101の後は状態102に移行すべきであるが、状態101から状態111に移行している。このために、移動判定部45は、空間領域の状態の変化が異常であると判定する。そして、移動判定部45は、物体の移動方向が異常であると判定する。
図13は、空間領域の状態の変化が異常である第2の例を示している。状態102では、制限領域64および監視領域62に物体が存在している。次の状態112では、3つの空間領域に物体が存在している。図11に示す様に、状態102の後には状態103に移行すべきであるが、状態102から状態112に移行している。この状態の変化は、例えば、ワーク19を搬出しているときに、作業者18が作業領域67に進入する場合が相当する。このために、移動判定部45は、空間領域の状態の変化が異常であると判定する。そして、移動判定部45は、物体の移動方向が異常であると判定する。
このように、移動判定部45は、空間領域の状態の変化に基づいて、物体の移動方向が正常か否かを判定することができる。本実施の形態における移動判定部45は、正常な状態の変化以外の状態の変化は、異常であると判定する。
図10を参照して、ステップ96において、空間領域の状態の変化が正常である場合には、ステップ97に移行する。ステップ97において、演算処理部35は、表示灯を点灯する。既に、表示灯29が点灯されている場合には、点灯されている状態を維持する。このときの表示灯29の点灯は、ワーク19が作業領域67から搬出されることを通知する点灯である。作業者18は、表示灯29が点灯するのを見て、ワーク19が搬出されることを認識することができる。
この後に、制御はステップ90に戻り、カメラ23にて距離画像を撮像する。そして、ステップ91からステップ96において、物体の移動方向が正常か否かを判定する制御を繰り返す。
ステップ96において、空間領域の状態の変化が許容されない場合には、制御はステップ99に移行する。例えば、作業者が作業領域67に進入した場合には、制御はステップ99に移行する。本実施の形態では、図11に示される状態の変化以外の状態の変化が生じたときに、制御はステップ99に移行する。
ステップ99において、送信部48は、ロボット11およびハンド13を非常停止させる為の信号をロボット制御装置12に送信する。ロボット制御装置12は、ロボット11およびハンド13を停止する。このように、作業者18の安全を確保することができる。
本実施の形態の監視装置21は、作業者18が柵15の外側の領域から出口部16を通って作業領域67に進入することを検出することができる。特に、監視装置21は、ワーク19が出口部16を通って搬出されている期間中に、作業者18が作業領域67に進入することを検出することができる。
本実施の形態における監視装置21では、任意の位置および大きさに監視領域を設定することができる。そして、監視領域62の全体が写るようにカメラ23を配置すれば良い。このために、監視領域62の機器の配置を容易に設定することができる。また、第1の空間領域および第2空間領域は、監視領域62を分割した時の予め定められた方向の両側の境界面を含む領域が設定されるために、監視を行う領域を容易に設定することができる。更に、作業者は、監視装置21の機器の複雑な制御を行う必要がない。
例えば、ライトカーテンを配置する場合には、ミューティング機能を有効にした時に作業者がすり抜けないように、ライトカーテンおよび光電センサを配置する位置および制御を検討する必要がある。この時に、作業者等がすり抜ける多くのパターンが存在するために、これらのパターンを考慮する必要が有る。これに対して、本実施の形態の監視装置21は、簡易な機器の配置および簡易な制御にて作業者等の物体がすり抜けないように監視することができる。
特に、本実施の形態の監視装置21は、正常な物体の移動を検出すると共に、異常な物体の移動を検出することができる。一方の方向に搬出される物体がある場合に、他方の方向から物体が進入することを検出することができる。すなわち、正常な方向とは反対側に向かって移動する物体を検出することができる。
また、本実施の形態の監視装置21は、1つの3次元カメラおよび画像処理装置にて構成できるために、監視装置の構成が簡易である。例えば、監視装置がライトカーテンを含む場合には、ミュート機能を実施するために、光電センサが必要になる。これに対して、本実施の形態の監視装置では、1つの3次元カメラにて物体の存在および物体の異常な移動を検出することができる。
本実施の形態の表示灯29は、制限領域64から警戒領域63に向かう物体の移動を検出した場合に作動するように形成されている。本実施の形態では、ワーク19の搬出を作業者18に知らせるために、表示灯29が作動しているが、この形態に限られない。移動判定部45が警戒領域63から制限領域64に向かう物体の移動を検出した場合に、表示灯を作動しても構わない。すなわち、演算処理部35は、許容される方向とは反対側の方向に物体が移動した時に、表示灯を点灯する制御を実施しても構わない。この制御により、作業領域67に進入する作業者18に対して警告することができる。または、作業者18に対して、物体が作業領域67に進入することを通知することができる。
または、制限領域64から警戒領域63に物体が向かう場合と、警戒領域63から制限領域64に物体が向かう場合との両方の場合に、表示灯29を作動しても構わない。この場合には、物体が移動する方向に応じて点灯パターンを変更することが好ましい。
作業者に物体の移動を通知する通知装置としては、表示灯に限られず、警報音を発生するブザーでであっても構わない。監視装置がブザーを備える場合にも、物体が搬出されるときの警報音と、物体が作業領域67の内部に進入する時の警報音とを変化させることができる。または、通知装置は、表示灯およびブザーの両方を含んでいても構わない。
本実施の形態における領域設定部42は、監視領域62を3つの空間領域に分割しているが、この形態に限られず、監視領域を2つの空間領域に分割しても構わない。
図14に、監視領域を2つの空間領域に分割したときの側面図を示す。領域設定部42は、切断面73によって監視領域62を警戒領域63および制限領域64に分割している。この監視領域62の分割方法によっても、上記と同様の制御により、物体が移動する方向を検出することができる。そして、判定部43が警戒領域63から制限領域64への物体の移動を検出した場合には、ロボットを停止する制御を実施することができる。
更に、領域設定部42は、監視領域62を4個以上の空間領域に分割しても構わない。例えば、図4を参照して、警戒領域63の内側に、更に空間領域を設定しても構わない。監視領域を分割した空間領域の数を増やすことにより、物体の移動をより詳細に判定することができる。
本実施の形態のカメラは、光の飛行時間に基づいて距離画像を撮像するが、この形態に限られない。3次元カメラは、カメラから物体までの距離が取得できる任意のカメラを採用することができる。3次元カメラとしては、たとえば、相対位置が予め定められている2台のカメラを含むステレオカメラを採用することができる。この場合に、監視領域を分割するための切断面の始点は、基準となる一方のカメラのレンズ中心点にすることができる。
本実施の形態の監視装置は、ロボットシステムに配置されているが、この形態に限られず、任意のシステムに配置することができる。たとえば、板金プレス機を備えるシステムに本実施の形態の監視装置を適用することができる。また、所定の領域に物体が存在するか否かを判定する任意のシステム、または、所定の領域に物体が進入するか否かを判定する任意のシステムに、本実施の形態の監視装置を配置することができる。
上述のそれぞれの制御においては、機能および作用が変更されない範囲において適宜ステップの順序を変更することができる。
上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、特許請求の範囲に示される実施の形態の変更が含まれている。
11 ロボット
12 ロボット制御装置
13 ハンド
14 コンベア
18 作業者
19 ワーク
21 監視装置
22 画像処理装置
23 カメラ
24 レンズ中心点
29 表示灯
31 距離画像生成部
41 画像取得部
42 領域設定部
43 判定部
44 領域判定部
45 移動判定部
48 送信部
62 監視領域
62a 画像領域
63 警戒領域
63a 画像領域
64 制限領域
64a 画像領域
65 中間領域
65a 画像領域
67 作業領域
70,71,72,73,78 切断面
75,76,77 測定点

Claims (7)

  1. 3次元の画像を取得する3次元カメラと、
    前記3次元カメラの出力信号の処理を行う画像処理装置とを備え、
    前記3次元カメラの撮像領域の一部が監視を行う監視領域に定められており、
    前記画像処理装置は、前記監視領域を分割して複数の空間領域を設定する領域設定部を含み、
    前記領域設定部は、前記3次元カメラを始点として放射状に延びる複数の切断面にて前記監視領域を分割し、予め定められた方向の一方の端部の空間領域を第1の空間領域に設定し、予め定められた方向の他方の端部の空間領域を第2の空間領域に設定する、監視装置。
  2. 前記3次元カメラは、光の飛行時間に基づいて物体までの距離の情報を取得するカメラである、請求項1に記載の監視装置。
  3. 前記画像処理装置は、前記3次元カメラの出力信号から距離情報を含む距離画像を生成する距離画像生成部と、前記距離画像に基づいて複数の空間領域の状態を判定する判定部とを含む、請求項1または2に記載の監視装置。
  4. 前記判定部は、それぞれの空間領域において、監視の対象となる物体が存在しているか否かを判定する領域判定部を含み、
    前記距離画像は、それぞれの空間領域に対応する画像領域を含み、
    前記画像領域に写されている物体の測定点について、前記3次元カメラから測定点までの距離の判定範囲が予め定められており、
    前記領域判定部は、測定点までの距離を前記距離画像から取得し、測定点までの距離が予め定められた判定範囲内である場合に、前記画像領域に対応する空間領域の内部に物体が存在すると判定する、請求項3に記載の監視装置。
  5. 前記領域設定部は、第1の空間領域と第2の空間領域との間の領域を第3の空間領域に設定し、
    前記判定部は、第1の空間領域における物体の存在の状態、第2の空間領域における物体の存在の状態、および第3の空間領域における物体の存在の状態に基づいて、物体の移動方向が正常か否かを判定する移動判定部を含む、請求項3または4に記載の監視装置。
  6. 前記画像処理装置は、情報を送信する送信部を含み、
    作業者の接近が制限されている装置が配置され、作業者の進入を制限する作業領域が予め設定されており、
    前記領域設定部は、第1の空間領域を作業領域の外側に配置された警戒領域に設定し、第2の空間領域を作業領域の内部に配置された制限領域に設定しており、
    前記判定部が警戒領域から制限領域に向かう物体の移動を検出した場合に、前記送信部は、作業者の接近が制限されている装置を停止する指令を発信する、請求項5に記載の監視装置。
  7. 作業者に物体の移動を通知する通知装置を備え、
    作業者の進入を制限する作業領域が予め設定されており、
    前記通知装置は、発光する表示灯および警報音を発生するブザーのうち少なくとも一方を含み、
    前記領域設定部は、第1の空間領域を作業領域の外側に配置された警戒領域に設定し、第2の空間領域を作業領域の内側に配置された制限領域に設定しており、
    前記判定部が警戒領域から制限領域に向かう物体の移動を検出した場合、および、前記判定部が制限領域から警戒領域に向かう物体の移動を検出した場合のうち少なくとも一方の場合に、前記通知装置が作動する、請求項5または6に記載の監視装置。
JP2017097803A 2017-05-17 2017-05-17 監視領域を分割した空間領域を監視する監視装置 Active JP6416980B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017097803A JP6416980B1 (ja) 2017-05-17 2017-05-17 監視領域を分割した空間領域を監視する監視装置
US15/958,133 US10482322B2 (en) 2017-05-17 2018-04-20 Monitor apparatus for monitoring spatial region set by dividing monitor region
CN201810421519.5A CN108958097B (zh) 2017-05-17 2018-05-04 对分割监视区域得到的空间区域进行监视的监视装置
DE102018003762.3A DE102018003762A1 (de) 2017-05-17 2018-05-09 Überwachungsvorrichtung zum Überwachen eines durch Aufteilen eines Überwachungsbereichs festgelegten räumlichen Bereichs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097803A JP6416980B1 (ja) 2017-05-17 2017-05-17 監視領域を分割した空間領域を監視する監視装置

Publications (2)

Publication Number Publication Date
JP6416980B1 JP6416980B1 (ja) 2018-10-31
JP2018195959A true JP2018195959A (ja) 2018-12-06

Family

ID=64017159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097803A Active JP6416980B1 (ja) 2017-05-17 2017-05-17 監視領域を分割した空間領域を監視する監視装置

Country Status (4)

Country Link
US (1) US10482322B2 (ja)
JP (1) JP6416980B1 (ja)
CN (1) CN108958097B (ja)
DE (1) DE102018003762A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069572A (ja) * 2018-10-31 2020-05-07 ファナック株式会社 ロボットシステム
WO2021171896A1 (ja) * 2020-02-25 2021-09-02 パナソニックIpマネジメント株式会社 レーザレーダ

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3578320B1 (de) * 2018-06-07 2021-09-15 Sick Ag Konfigurieren einer von einem 3d-sensor überwachten gefahrenstelle
WO2020176473A1 (en) * 2019-02-27 2020-09-03 Veo Robotics, Inc. System architecture for safety applications
CN109887141A (zh) * 2019-02-28 2019-06-14 浙江大唐乌沙山发电有限责任公司 应用于电厂安全管理上的智能管控系统及管控方法
CN111724558B (zh) * 2019-03-21 2021-10-19 杭州海康威视数字技术股份有限公司 一种监控方法、装置及入侵报警系统
EP4037447A4 (en) * 2019-09-23 2022-09-21 Fuji Corporation PERIPHERY MONITORING DEVICE
JP7368156B2 (ja) * 2019-09-26 2023-10-24 ファナック株式会社 ロボット制御システム
DE202020102721U1 (de) * 2020-05-14 2020-12-23 Leuze Electronic Gmbh + Co. Kg Überwachungseinrichtung
CN114202865B (zh) * 2021-11-16 2024-05-14 杭州华橙软件技术有限公司 一种监控警告方法、装置及电子设备

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05261692A (ja) * 1992-03-17 1993-10-12 Fujitsu Ltd ロボットの作業環境監視装置
JP2003162776A (ja) * 2001-11-27 2003-06-06 National Institute Of Advanced Industrial & Technology 空間マーキング装置
JP2004530090A (ja) * 2001-06-08 2004-09-30 ハネウェル・インターナショナル・インコーポレーテッド 相互排除ゾーンを備えたマシン安全システム
JP2004276154A (ja) * 2003-03-13 2004-10-07 Omron Corp 侵入物監視装置
JP2005339543A (ja) * 2004-05-21 2005-12-08 Rockwell Automation Bv 赤外線安全システム及び方法
JP2008033819A (ja) * 2006-07-31 2008-02-14 Omron Corp 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
JP2009521022A (ja) * 2005-12-22 2009-05-28 ピルツ ゲーエムベーハー アンド コー.カーゲー 空間領域をモニタするためのモニタ装置を構成する方法
JP2010208002A (ja) * 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
US20120074296A1 (en) * 2010-09-23 2012-03-29 Sick Ag Optoelectronic sensor
JP2013010161A (ja) * 2011-06-29 2013-01-17 Seiko Epson Corp 侵入物検出方法および侵入物検出装置
JP2014140920A (ja) * 2013-01-23 2014-08-07 Denso Wave Inc ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
JP2015201693A (ja) * 2014-04-04 2015-11-12 富士電機株式会社 安全制御装置および安全制御システム
US20150332463A1 (en) * 2014-05-19 2015-11-19 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10152543A1 (de) * 2001-10-24 2003-05-08 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
JP2003143593A (ja) 2001-11-05 2003-05-16 Hitachi Eng Co Ltd 画像処理による監視方法およびシステム
US7176432B2 (en) * 2003-06-06 2007-02-13 Seiko Npc Corporation Image detection processor and image detection processing method
KR20050000276A (ko) 2003-06-24 2005-01-03 주식회사 성진씨앤씨 감시 카메라 제어용 가상 조이스틱 시스템 및 제어 방법
CN102239032B (zh) * 2008-12-03 2014-07-02 Abb研究有限公司 机器人安全系统和方法
DE102009031732B3 (de) * 2009-07-04 2010-11-25 Sick Ag Entfernungsmessender optoelektronischer Sensor
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
CN101656023B (zh) 2009-08-26 2011-02-02 西安理工大学 一种视频监视模式下的室内停车场管理方法
WO2011128117A2 (de) * 2010-04-16 2011-10-20 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. . Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs
CN202662028U (zh) 2012-06-06 2013-01-09 深圳市海亿达能源科技股份有限公司 一种一体化空间人群分布监测装置
US20150185857A1 (en) 2012-06-08 2015-07-02 Kmt Global Inc User interface method and apparatus based on spatial location recognition
DE102013106514B3 (de) * 2013-06-21 2014-10-30 Pilz Gmbh & Co. Kg Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
JP6221605B2 (ja) 2013-10-08 2017-11-01 富士電機株式会社 安全制御装置および安全制御システム
US9452531B2 (en) * 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
JP6601155B2 (ja) * 2015-10-28 2019-11-06 株式会社デンソーウェーブ ロボット制御システム
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
EP3243609A1 (en) * 2016-05-09 2017-11-15 OpiFlex Automation AB A fenceless industrial robot system
CN107717982B (zh) * 2016-08-12 2020-09-25 财团法人工业技术研究院 机械手臂的控制装置及操作方法
US10882185B2 (en) * 2017-02-07 2021-01-05 Veo Robotics, Inc. Dynamically determining workspace safe zones with speed and separation monitoring

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05261692A (ja) * 1992-03-17 1993-10-12 Fujitsu Ltd ロボットの作業環境監視装置
JP2004530090A (ja) * 2001-06-08 2004-09-30 ハネウェル・インターナショナル・インコーポレーテッド 相互排除ゾーンを備えたマシン安全システム
JP2003162776A (ja) * 2001-11-27 2003-06-06 National Institute Of Advanced Industrial & Technology 空間マーキング装置
JP2004276154A (ja) * 2003-03-13 2004-10-07 Omron Corp 侵入物監視装置
JP2005339543A (ja) * 2004-05-21 2005-12-08 Rockwell Automation Bv 赤外線安全システム及び方法
JP2009521022A (ja) * 2005-12-22 2009-05-28 ピルツ ゲーエムベーハー アンド コー.カーゲー 空間領域をモニタするためのモニタ装置を構成する方法
JP2008033819A (ja) * 2006-07-31 2008-02-14 Omron Corp 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
JP2010208002A (ja) * 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
US20120074296A1 (en) * 2010-09-23 2012-03-29 Sick Ag Optoelectronic sensor
JP2013010161A (ja) * 2011-06-29 2013-01-17 Seiko Epson Corp 侵入物検出方法および侵入物検出装置
JP2014140920A (ja) * 2013-01-23 2014-08-07 Denso Wave Inc ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
JP2015201693A (ja) * 2014-04-04 2015-11-12 富士電機株式会社 安全制御装置および安全制御システム
US20150332463A1 (en) * 2014-05-19 2015-11-19 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069572A (ja) * 2018-10-31 2020-05-07 ファナック株式会社 ロボットシステム
WO2021171896A1 (ja) * 2020-02-25 2021-09-02 パナソニックIpマネジメント株式会社 レーザレーダ

Also Published As

Publication number Publication date
CN108958097A (zh) 2018-12-07
US20180336402A1 (en) 2018-11-22
DE102018003762A1 (de) 2018-11-22
US10482322B2 (en) 2019-11-19
JP6416980B1 (ja) 2018-10-31
CN108958097B (zh) 2019-10-15

Similar Documents

Publication Publication Date Title
JP6416980B1 (ja) 監視領域を分割した空間領域を監視する監視装置
JP6490121B2 (ja) ロボットシステム
JP5249529B2 (ja) 乗客コンベアの安全装置および安全制御方法
US20190007659A1 (en) Sensor for securing a machine
US20190257978A1 (en) Object monitoring device using sensor
CN108536142B (zh) 基于数字光栅投影的工业机器人防撞预警系统及方法
JP2011079648A (ja) 固定映像表示システム
JP2011063358A (ja) 吊荷下方の監視システム及び監視方法
JP2011195288A (ja) マンコンベア画像処理装置
JP6470235B2 (ja) 安全管理方法および安全管理システム
KR102262384B1 (ko) 송배전 설비 감시용 드론 운용 시스템 및 운용 방법
EP0483362A1 (en) System for measuring length of sheet
KR102544505B1 (ko) 크레인의 충돌 방지 시스템 및 충돌 방지 방법
KR101339456B1 (ko) 스캐너를 이용한 터널 내 유고 검지 시스템
JP6838027B2 (ja) ロボットシステム
KR101438921B1 (ko) 차량 주변의 이동체 경보 장치 및 방법
JP2018179654A (ja) 距離画像の異常を検出する撮像装置
JP6426438B2 (ja) 軌道接近警告システム
JP7127592B2 (ja) 報知システム
JP6367100B2 (ja) エリア監視センサ
JP2016118919A (ja) 監視装置、監視方法
JP2015184263A (ja) パンタグラフすり板の検査システムおよび検査方法
JP6464477B2 (ja) 移動体用周辺監視装置
JP2019127373A (ja) クレーン作業エリア登録装置
KR101544790B1 (ko) 차량의 물체 검출장치 및 그 검출방법

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180829

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181004

R150 Certificate of patent or registration of utility model

Ref document number: 6416980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150