CN110174706B - 使用了传感器的物体监视装置 - Google Patents

使用了传感器的物体监视装置 Download PDF

Info

Publication number
CN110174706B
CN110174706B CN201910118291.7A CN201910118291A CN110174706B CN 110174706 B CN110174706 B CN 110174706B CN 201910118291 A CN201910118291 A CN 201910118291A CN 110174706 B CN110174706 B CN 110174706B
Authority
CN
China
Prior art keywords
area
sensor
monitoring
region
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910118291.7A
Other languages
English (en)
Other versions
CN110174706A (zh
Inventor
中村稔
渡边淳
高桥祐辉
岩竹隆裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN110174706A publication Critical patent/CN110174706A/zh
Application granted granted Critical
Publication of CN110174706B publication Critical patent/CN110174706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V99/00Subject matter not provided for in other groups of this subclass
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/881Radar or analogous systems specially adapted for specific applications for robotics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. analysis, for interpretation, for correction
    • G01V1/282Application of seismic models, synthetic seismograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

本发明提供一种物体监视装置,即使在产生传感器的死角的情况下也能够进行合适的物体探测。监视装置具备测量规定的空间区域的传感器和基于传感器的测量数据,判断在空间区域内预先决定的监视区域内的物体的有无的判断部,判断部构成为,在传感器探测出从该传感器到监视区域的中间区域内存在物体的情况下,能够预先设定是否基于中间区域内的物体的存在来进行在监视区域内具有物体的判断。

Description

使用了传感器的物体监视装置
技术领域
本发明涉及使用了传感器的物体监视装置。
背景技术
已知以下技术:利用立体视觉装置、测距仪等距离图像计量装置,调整该距离图像与指定的区域的干涉,检测物体对指定区域的侵入、距物体的距离(例如,日本特开2003-162776号公报)。
另外,抑制为了避免机器人与作业者的干涉、接触,使用三维传感器、照相机测量机器人的作业区的技术(例如,日本特开2010-208002号公报、日本特开2012-223831号公报、日本特开2017-013172号公报)。
使用传感器检测规定的监视区域内的物体的存在的监视装置中,在由于该监视区域外的物体的存在而该监视装置的物体监视产生死角的情况下,从重视安全的观点出发,多进行判断为在该监视区域内有物体的处理。但是,这样,若实际上在监视区域内不存在物体而判断为有物体,则存在以下问题:使监视区域包含的机器不必要地停止、在监视区域外作业的作业者被迫进行不产生死角的行动等。
发明内容
本公开的一方案为一种物体监视装置,其具备:测量规定的空间区域的传感器;以及基于上述传感器的测量数据,判断在上述空间区域内预先决定的监视区域内的物体的有无的判断部,上述判断部构成为,在上述传感器探测出从该传感器到上述监视区域的中间区域内存在物体的情况下,能够预先设定是否基于上述中间区域内的上述物体的存在来进行在上述监视区域内具有物体的判断。
附图说明
根据与附图相关的以下的实施方式的说明,将进一步明确本发明的目的、特征以及优点。附图中:
图1是表示物体监视装置的一结构例的图,
图2是表示物体监视装置的作用的图,
图3是说明监视区域与中间区域的位置关系的图,
图4是表示利用一个传感器监视多个监视区域的例的图,
图5是表示将一个监视区域利用两个传感器监视的例的图,
图6是表示利用多个传感器监视多个监视区域的例的图,
图7是表示利用多个传感器监视多个监视区域的其它例的图。
具体实施方式
图1概略性地图示优选的实施例的物体监视装置(以下,也称为监视装置)10和作为其监视对象的监视区域16。监视装置10具备测量规定的空间区域12的第一传感器14、和基于第一传感器14的测量数据判断在空间区域12内预定的监视区域16内的物体的有无的判断部18。
本实施例中,在第一传感器14的可测量范围内设定空间区域12,进一步地,在空间区域12内设定监视区域16作为应(优选始终)监视物体的侵入或存在的区域。该设定例如监视系统的设计者能够通过适当的输入单元进行,设定的内容能够存储于监视装置10的存储器(未图示)等。在此,例如,如图2所示,监视区域16作为基于危险物(例如机器人)22的大小、可动范围等决定的(大致长方体的)区域而设定,能够由监视装置10(具备的处理器等)假想地设定。若人等物体24侵入监视区域16内,则构成为输出监视装置10的判断部18的判断结果的输出部19输出在监视区域16内探测到物体的意思的信息(探测信号等)。例如连接于机器人22且控制机器人22的动作的控制装置30可接收输出的信息,当控制装置30接收到探测信号后,为了确保安全,进行切断驱动机器人的马达的动力、输出警报等处理。
在此,如图2所示,即使在物体(作业者等)24未进入监视区域16内的状态下,根据传感器14与监视区域16的位置关系,由于物体24,在监视区域16内产生死角。更详细而言,若物体24存在于中间区域20内,则监视区域16内的参照符号26表示的区域成为死角,在死角26内是否有物体无法根据传感器14的测量数据测量。这样的情况下,在现有的监视装置中,从重视安全的观点出发,设定为输出在监视区域内具有物体的判断结果(探测信号)的情况较多,因此,作业者为了避免该情况,例如,被迫如图2中用参照符号24′所示地以不进入中间区域20内的方式(即相距监视区域16隔开充分的间隔)进行作业等。
此外,中间区域是指通过由连结传感器14的代表点(例如照相机镜头的中心)28和监视区域16的外形线(轮廓)的直线划分出的面划分出的三维空间,在中间区域内具有物体的情况下,在该物体关于传感器14的代表点28的后方投影区域内包含监视区域16的至少一部分,该被包含的一部分可能成为死角。更具体而言,如图3所示,在将监视区域16假定为具有八个顶点A-H的长方体的情况下,中间区域20为由传感器14的代表点28和顶点B、C、G、F划分出的(四棱锥的)区域,在中间区域20内存在物体时,在区域26内产生死角。本实施例的中间区域20也可以称为从传感器14观察存在因作业者24而产生的可能性的监视区域16的死角区域26的区域。
因此,监视装置10的判断部18构成为,能够预先(由配备物体监视装置的监视系统的设计者等)设定在第一传感器14在中间区域20内探测到物体的存在的情况下,是否基于该探测来进行在监视区域16内有物体的判断(物体探测),在此,设定为不进行物体探测。该情况下,从监视装置10(的输出部19)什么都不输出,因此,接收来自监视装置10的输出的装置(例如,机器人控制装置30)不执行使监视区域16内的危险物的动作停止(例如,切断驱动机器人的马达的动力)等的处理。因此,作业者即使接近至监视区域16的附近,也能够避免机器人不必要地停止而使包含该机器人的系统的作业效率降低等问题。
图4是表示在空间区域内设定有多个监视区域的实施例的图。例如,监视装置10(传感器14)在能够测量比图2的空间区域12大的空间区域32的情况下,除了上述的第一监视区域16,还能够追加、设定第二监视区域34。图4的例中,对于第二监视区域34而言,不会因物体而产生死角(不能假设在传感器14到第二监视区域34的第二中间区域36内存在物体),因此,对于第二监视区域34而言,监视装置10能够设定为,在中间区域36内探测到物体后,作为监视区域34内的物体探测(探测信号)而输出。该情况下,假设在中间区域36内确认了物体的存在(进入),则从确保安全等的观点出发,优选设为在监视区域34内有物体。这样,监视装置10(的判断部18)在具有多个监视区域的情况下,通过预先设定在与各监视区域对应的中间区域内探测到物体时是否基于该探测来作为监视区域内的物体探测而判断,从而能够对每个监视区域将判断部的判断结果作为探测信号而输出。
如图4所例示地,第一监视区域16有时能够分割成可能因图2所示的物体24等成为死角的区域26、和不会成为死角的区域38,与之相应地也能够分割中间区域。图4的例中,物体(作业者等)有时进入与区域26对应的中间区域20内,但是不能假设进入与区域38对应的中间区域40内。此外,中间区域40根据在图3的例中所提到的,为有传感器14的代表点28和顶点A、B、C、D划分出的(四棱锥的)区域。因此,将监视区域16(假想地)分割,实质上设定多个(在此,两个)监视区域,与它们对应地也分割中间区域,对每个分割出的中间区域都能够进行上述的判断。具体而言,在中间区域20内,在探测到物体的存在的情况下,不基于该探测判断为在监视区域16内有物体,因此,从监视装置10什么都不输出,另一方面,若在中间区域40内确认了物体的存在(进入),则监视装置10输出在监视区域16内有物体的判断(探测信号)。这样,对于不会成为死角的区域,从确保安全等的观点出发,可以进行安全性更高的物体探测。
在此,中间区域20的指定(分割区域的设定)能够通过特定传感器14的视野区域来进行,例如,在图3中,只要指定由顶点B、C、G、F划分出的面42即可。或者,也可以使用CAD等指定与区域26相当的三维区域(的坐标)。但是,分割区域的设定方法并不限于这样的面指定、区域指定。
另外,如图4所示,分割、设定一个监视区域16作为独立的两个监视区域26及38,对于监视区域26,也可以设定为在中间区域20内探测到物体时,不基于该探测进行监视区域16内的物体的有无的判断。但是,区域26及38原本是一个监视区域,因此优选关于该监视区域的监视结果(物体的有无)是一个(信号)。因此,这样的情况下,监视装置10(的判断部18)能够对每个合并多个监视区域而成的群(在此,对于包含区域26及38的区域16)输出判断部的判断结果。例如,该情况下,在区域26及38的某个探测到物体的存在后,即使在其它区域未进行物体探测,对于合并而成的群(区域16)也作为有物体进行处理。
图5是说明包含多个传感器的监视装置的实施例的图。如图2所示地,仅使用一个传感器14在监视区域16内存在可能产生死角的部分(区域26),因此,有时不能在整个监视区域16进行准确的物体探测。因此,在图5的实施例中,为了弥补该情况,使用配置于相互不同的位置的多个传感器。具体而言,通过进一步设置配置于与第一传感器14不同的位置的第二传感器44和基于第二传感器44的测量数据判断预先决定的监视区域(在此,相当于监视区域16内的死角26的区域)内的物体的有无的第二判断部46,由此,能够对于因中间区域20内的物体(例如作业者24)的存在而关于第一传感器14成为死角的区域26,基于第二传感器44的测量数据进行物体探测,对于监视区域16内的区域26以外的区域38,基于第一传感器14的测量数据进行物体探测。另外,判断部46的处理(判断)结果也能够以探测信号灯的方式从连接于判断部46的输出部48输出至控制装置30等。
若如图5那样使用多个传感器,则在一个传感器下成为死角的区域通过剩余的传感器也能够进行物体探测,在监视区域内的全部的空间可以进行准确的物体探测。另外,在中间区域20存在物体时,从第一传感器14不进行安全侧的输出(监视区域内有物体),另外,由于因该物体而产生的死角,不能确认在区域26内是否存在物体,该情况下,也不进行在监视区域内有物体的输出。但是,第二传感器44配置于即使在中间区域20内存在物体也在区域26内不会产生死角的部位,因此,在区域26内存在物体的情况下,基于第二传感器44的测量数据进行物体探测,因此,不会放过区域26内的物体的存在。但是,该情况下,判断部46在第二传感器44探测到在从第二传感器44到监视区域16的中间区域内存在物体的情况下,优选进行在监视区域16内具有物体的判断。
在图5的例中,判断部18或46无需进行合并判断两个传感器的输出的处理。同样地,在控制装置30中,也无需进行合并判断来自两个判断部(输出部)的输出信号的处理,在任意的输出信号表示在监视区域具有物体的情况下,只要进行使机器人22停止的控制等即可。因此,无需将传感器间(判断部间)通过复杂的配线连接,另外,对于某监视区域,不合并判断两个传感器(判断部)的输出,而且进行准确的物体探测,因此,监视装置整体实现低成本化。
图6是说明包含多个传感器的监视装置的另一实施例的图,在此,考虑使用两个传感器监视相互分离的三个监视区域50、52以及54的监视装置。此外,这样的监视装置的监视区域、传感器的配置通常由监视系统的设计者设计、设定。
第一传感器14配置于从大致正上方面向左侧的监视区域50的位置,因此,在监视区域50内不会产生死角,同样地,第二传感器44配置于从大致正上方面向右侧的监视区域54的位置,因此,在监视区域54内也不会产生死角。
另一方面,在中央的监视区域52中,由于第一传感器14与监视区域52之间的中间区域58内的物体的存在,监视区域52内的区域56成为死角,同样地,由于第二传感器44与监视区域52之间的中间区域62内的物体的存在,监视区域52内的区域60成为死角。在此,对于第一传感器14成为死角的区域56能够通过第二传感器44准确地进行物体探测,因此,第一传感器14能够设定为,在与死角56对应的中间区域58内探测到物体时,不进行对监视区域52的物体探测。或者,也可以与图4同样地将监视区域52分割成相当于死角的区域56和除此之外的区域,将区域56设为非探测。
同样地,在监视区域52中,对于第二传感器44成为死角的区域60能够通过第一传感器14准确地进行物体探测,因此,第二传感器44能够设定为,在与死角60对应的中间区域62内探测到物体时,不进行对监视区域52的物体探测。或者,与图4同样地将监视区域52分割成相当于死角的区域60和除此之外的区域,仅将区域60设为非探测。这样,在监视区域为多个且传感器也为多个的情况下,通过适当地选择它们的位置关系等,能够对一方的传感器的死角通过另一方传感器进行补偿,能够合适地进行各监视区域的物体探测。
本公开的监视装置能够容易地扩张传感器的个数。例如,如图7所示,在允许作业者的进入的作业者区域64a-64d和应监视作业者的进入的监视区域66a-66c交替配置的情况下,若以能够通过至少两个传感器监视一个监视区域的方式配置传感器,则即使在产生死角的情况下,也能够进行不存在遗漏的物体探测。例如,对于传感器68b而言,作业者居于作业者区域64b内的左端时,在监视区域66a的右下部产生死角,但是,该死角通过传感器68a能够进行物体探测。同样地,对于传感器68b,作业者居于作业者区域64c内的右端时,在监视区域66c的左下部产生死角,但是,该死角通过传感器68c能够进行物体探测。这样,传感器的个数基于作业者区域及监视区域的大小、个数实质上可以无限制地扩张,另外,对于各个传感器而言,只要进行对预先设定的测量范围内进行物体的探测/非探测的设定即可,无需将传感器间连接,能够构建低成本且简单的结构的监视装置。
此外,如图7所示,在监视区域、传感器的个数比较多的情况下,也能够预先使用模拟装置(个人计算机)等支持工具,通过计算(模拟)求出与监视区域的大小、位置以及个数相应的最佳的传感器的个数、配置位置。
此外,在上述的说明中,说明了即使传感器探测到在中间区域存在物体从判断部(输出部)也不进行任何输出的情况,取而代之,也可以在传感器探测到在中间区域存在物体时,从判断部(输出部)向控制装置30等发送不进行监视区域内的物体探测的意思的输出(非探测信号等)。
上述的实施例的传感器是以能够取得与存在于测量范围(空间区域)内的物体的位置相关的信息(测量数据)的方式构成的测距传感器,作为其具体例,能够使用具有投光光学系和受光光学系的三角测距式的测量装置、使用两台拍摄装置(例如CCD照相机)的立体测距式的测量装置、利用电波的反射延迟时间的雷达、利用光(激光、近红外光)的反射延迟时间的TOF传感器等,但不限于此。
在上述的实施例中,对监视装置的监视区域及中间区域的设定(大小、位置的输入)能够由监视系统的管理者预先使用适当的输入单元(键盘、触控面板等)进行。但是,中间区域也可以由判断部基于所设定的监视区域的位置、大小等信息自动计算。另外,判断部及输出部例如可以构成为用于使电子计算机的CPU(中央处理装置)等处理器发挥功能的软件。或者,例如,可以实现为可以指向该软件的处理的至少一部分的的处理器等硬件。
本公开的物体监视装置中,能够预先设定在中间区域内探测到物体的情况下,是否基于该探测来进行在监视区域内有物体的判断,因此,在因中间区域内的物体而在监视区域内可产生死角的情况下,优选设定为不进行上述判断,且使其它传感器监视监视区域内的可成为死角的区域。这样,即使监视系统的管理者接近至监视区域的附近而产生死角,也由于不判断为在监视区域内有物体,因此不会进行使监视区域内的机器人等危险物紧急停止等过多的处理,作业者能够有效且安全地进行作业。
在此,为了准确探测相当于死角的区域内的物体的有无,即使在该中间区域存在物体,也只要使用配置于该区域不成为死角的位置的其它传感器即可,该情况下,多个传感器也无需相同通过网络等连接,各判断部只要进行针对根据来自与各自连接的传感器的数据设定的监视区域、其中间区域的物体的判断处理,并输出该结果即可。
本公开的监视装置作为安全装置使用的情况较多,这样的情况下,尤其要求从在监视区域内探测到物体到输出至其它装置的时间尽量短,在不具有本公开这样的功能的情况下,存在将多个传感器连接于一个判断部、为了合并多个判断部的结果来判断而需要多个高速网络的情况。但是,本公开中无需将传感器间连接,或者无需合并判断多个传感器的输出来进行物体探测,因此,能够以低成本构建具备充分的实用性的监视装置。
根据本公开,能够设定在中间区域内探测到物体的情况下,不进行监视区域内的物体的有无的判断。因此,能够防止因作业者等进入中间区域内而产生死角时,判断为在监视区域内有物体而引起的问题。

Claims (7)

1.一种物体监视装置,其特征在于,具备:
测量规定的空间区域的传感器;以及
基于上述传感器的测量数据,判断在上述空间区域内预先决定的监视区域内的物体的有无的判断部,
上述监视区域包括死角,该死角是因从上述传感器到上述监视区域的中间区域内的上述物体的存在而可能产生的、在上述传感器的测定数据中无法判定物体的有无的区域,
上述判断部构成为,在上述传感器探测出上述中间区域内存在物体的情况下,能够预先设定是否基于上述中间区域内的上述物体的存在来进行在上述监视区域内具有物体的判断。
2.根据权利要求1所述的物体监视装置,其特征在于,
在上述空间区域内设定有多个上述监视区域,对多个上述监视区域的每一个监视区域规定上述中间区域。
3.根据权利要求1或2所述的物体监视装置,其特征在于,
上述判断部构成为,对于将上述中间区域分割而得到的区域的每一个,能够预先设定是否基于各区域内的上述物体的存在来进行在上述监视区域内具有物体的判断。
4.根据权利要求1或2所述的物体监视装置,其特征在于,
还具备输出上述判断部的判断结果的输出部,
上述输出部对上述判断部决定的多个监视区域的每一个或者合并了多个监视区域的群的每一个输出上述判断部的判断结果。
5.根据权利要求1或2所述的物体监视装置,其特征在于,
上述传感器包含第一传感器和配置于与该第一传感器不同的位置的第二传感器,
上述判断部在被设定为上述第一传感器探测到从该第一传感器到上述监视区域的中间区域内存在物体的情况下不进行在上述监视区域内具有物体的判断时,基于上述第二传感器的测量数据判断上述监视区域内的物体的有无。
6.根据权利要求5所述的物体监视装置,其特征在于,
被设定为不根据上述第一传感器进行具有物体的判断的监视区域是从该第一传感器到该监视区域的中间区域内的因物体的存在而在该监视区域内能产生死角的区域,
上述第二传感器配置于该中间区域内的不因物体的存在而在该监视区域内产生死角的位置。
7.根据权利要求6所述的物体监视装置,其特征在于,
上述判断部在上述第二传感器探测到从该第二传感器到上述监视区域的中间区域内存在物体的情况下,进行在上述监视区域内具有物体的判断。
CN201910118291.7A 2018-02-19 2019-02-14 使用了传感器的物体监视装置 Active CN110174706B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018026919A JP6626138B2 (ja) 2018-02-19 2018-02-19 センサを用いた物体監視装置
JP2018-026919 2018-02-19

Publications (2)

Publication Number Publication Date
CN110174706A CN110174706A (zh) 2019-08-27
CN110174706B true CN110174706B (zh) 2021-10-22

Family

ID=67482201

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910118291.7A Active CN110174706B (zh) 2018-02-19 2019-02-14 使用了传感器的物体监视装置

Country Status (4)

Country Link
US (1) US20190257978A1 (zh)
JP (1) JP6626138B2 (zh)
CN (1) CN110174706B (zh)
DE (1) DE102019001036B4 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6838027B2 (ja) * 2018-10-31 2021-03-03 ファナック株式会社 ロボットシステム
US11210536B2 (en) 2020-01-06 2021-12-28 Toyota Jidosha Kabushiki Kaisha Moving object recognition system, moving object recognition method, and program
JP2022121820A (ja) * 2021-02-09 2022-08-22 トヨタ自動車株式会社 ロボット制御システム、ロボット制御方法、及び、制御プログラム
DE102022112728A1 (de) * 2022-05-20 2023-11-23 Evocortex Gmbh Sensoreinrichtung, Anordnung, Roboter, stationärer Aufbau und Verfahren

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931146B2 (en) * 1999-12-20 2005-08-16 Fujitsu Limited Method and apparatus for detecting moving object
JP2011215775A (ja) * 2010-03-31 2011-10-27 Secom Co Ltd 物体検出センサおよび警備システム
WO2016146805A1 (en) * 2015-03-18 2016-09-22 Jaguar Land Rover Limited Reducing erroneous detection of input command gestures

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6297844B1 (en) * 1999-11-24 2001-10-02 Cognex Corporation Video safety curtain
JP3749945B2 (ja) * 2001-11-27 2006-03-01 独立行政法人産業技術総合研究所 空間マーキング装置
JP3704706B2 (ja) * 2002-03-13 2005-10-12 オムロン株式会社 三次元監視装置
US7787013B2 (en) * 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
WO2006132029A1 (ja) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. 監視システム、監視方法及びカメラ端末
DE102007058959A1 (de) * 2007-12-07 2009-06-10 Robert Bosch Gmbh Konfigurationsmodul für ein Überwachungssystem, Überwachungssystem, Verfahren zur Konfiguration des Überwachungssystems sowie Computerprogramm
JP5086899B2 (ja) * 2008-06-03 2012-11-28 株式会社キーエンス エリア監視センサ
JP5343641B2 (ja) 2009-03-12 2013-11-13 株式会社Ihi ロボット装置の制御装置及びロボット装置の制御方法
JP5027270B2 (ja) * 2010-03-31 2012-09-19 セコム株式会社 物体検出センサ
US8963883B2 (en) * 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
JP5523386B2 (ja) 2011-04-15 2014-06-18 三菱電機株式会社 衝突回避装置
EP2772676B1 (de) * 2011-05-18 2015-07-08 Sick Ag 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs
US9723272B2 (en) * 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
JP6265132B2 (ja) * 2012-12-06 2018-01-24 日本電気株式会社 画像認識処理適性表示システム、方法およびプログラム
JP6100581B2 (ja) * 2013-03-29 2017-03-22 株式会社デンソーウェーブ 監視装置
JP6177837B2 (ja) 2015-06-30 2017-08-09 ファナック株式会社 視覚センサを用いたロボットシステム
JP6747665B2 (ja) * 2016-06-07 2020-08-26 トヨタ自動車株式会社 ロボット
JP6360105B2 (ja) * 2016-06-13 2018-07-18 ファナック株式会社 ロボットシステム
JP6729146B2 (ja) * 2016-08-03 2020-07-22 コベルコ建機株式会社 障害物検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931146B2 (en) * 1999-12-20 2005-08-16 Fujitsu Limited Method and apparatus for detecting moving object
JP2011215775A (ja) * 2010-03-31 2011-10-27 Secom Co Ltd 物体検出センサおよび警備システム
WO2016146805A1 (en) * 2015-03-18 2016-09-22 Jaguar Land Rover Limited Reducing erroneous detection of input command gestures

Also Published As

Publication number Publication date
CN110174706A (zh) 2019-08-27
US20190257978A1 (en) 2019-08-22
DE102019001036B4 (de) 2022-08-04
JP6626138B2 (ja) 2019-12-25
DE102019001036A1 (de) 2019-08-22
JP2019144040A (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
CN110174706B (zh) 使用了传感器的物体监视装置
US20190007659A1 (en) Sensor for securing a machine
US10482322B2 (en) Monitor apparatus for monitoring spatial region set by dividing monitor region
US10378889B2 (en) Measurement system having a cooperative robot and three-dimensional imager
US10875198B2 (en) Robot system
JPH06293236A (ja) 走行環境監視装置
JP2008033819A (ja) 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
US20170278307A1 (en) Danger avoidance support program
JP2005024463A (ja) ステレオ広視野画像処理装置
KR20150033864A (ko) 레이저 스캐너를 이용하여 장애물을 인식하기 위한 특징점 추출 장치 및 방법
CN112130158A (zh) 对象距离测量装置和方法
JPH11257931A (ja) 物体認識装置
KR20180063524A (ko) 가상 차선을 이용한 전방 차량 위험도 감지 방법 및 장치
CN110927736B (zh) 具有测距装置的物体监视系统
JP6375728B2 (ja) 安全制御装置および安全制御システム
JP4261321B2 (ja) 歩行者検出装置
EP4024330A1 (en) Object recognition method and object recognition device
JPH11165291A (ja) 安全監視装置および方法
KR20180119344A (ko) 영역 감시 장치 및 이에 의한 영역 감시 방법
KR102188567B1 (ko) 3차원 레이저 스캐너를 이용한 도로 감시 시스템
JP2018179654A (ja) 距離画像の異常を検出する撮像装置
JP2013092994A (ja) 車両周辺監視装置
JPH0389103A (ja) 架空送電線障害物接近検知装置
KR102489649B1 (ko) 센서를 구비한 크레인 충돌 방지 시스템 및 그 센서 데이터의 분석 방법
EP4292781A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant