JP2022138211A - Object detection system and control device - Google Patents

Object detection system and control device Download PDF

Info

Publication number
JP2022138211A
JP2022138211A JP2021037960A JP2021037960A JP2022138211A JP 2022138211 A JP2022138211 A JP 2022138211A JP 2021037960 A JP2021037960 A JP 2021037960A JP 2021037960 A JP2021037960 A JP 2021037960A JP 2022138211 A JP2022138211 A JP 2022138211A
Authority
JP
Japan
Prior art keywords
object detection
imaging means
markers
protection area
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021037960A
Other languages
Japanese (ja)
Inventor
将己 藤田
Masaki Fujita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021037960A priority Critical patent/JP2022138211A/en
Priority to PCT/JP2021/047126 priority patent/WO2022190544A1/en
Publication of JP2022138211A publication Critical patent/JP2022138211A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C15/00Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path
    • G08C15/06Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path successively, i.e. using time division

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Manipulator (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Abstract

To provide a technique for increasing the response speed of object detection.SOLUTION: An object detection system includes: a plurality of imaging means arranged so that measurable regions thereof overlap each other at least partially and outputting periodically distance information within the measurable regions; object detection means for detecting an object based on the distance information output by the plurality of imaging means; and control means for controlling output timings of the distance information by the plurality of imaging means to be shifted from each other.SELECTED DRAWING: Figure 4

Description

本発明は、物体検出システム、制御装置に関する。 The present invention relates to an object detection system and control device.

多くの生産現場において、作業者と協働しながらロボットが作業することが行われている。このような生産現場では、作業者の安全を確保するために様々な工夫が施されている。例えば、安全規格に基づき、ロボット等の危険源の近くに仮想の防護エリアを設定し、防護エリア内に人体等の物体が入ると危険源を低速駆動または停止させることが行われる。物体の検出には、例えばエリアセンサが用いられる。 In many production sites, robots work while collaborating with workers. In such production sites, various measures are taken to ensure the safety of workers. For example, based on safety standards, a virtual protection area is set near a danger source such as a robot, and when an object such as a human body enters the protection area, the danger source is driven at low speed or stopped. An area sensor, for example, is used for object detection.

防護エリアは、物体検出から危険源の減速または停止の完了までの所要時間を考慮して設定される。すなわち、防護エリアの大きさは、危険源からの安全距離(防護エリアへの侵入物が危険源に到達するまでに危険源が減速・停止を完了することを保証できる距離)で決まる。また、安全距離は、センサの応答速度や、危険源の動作速度や制動性能などを考慮して定められる。生産性の観点からは、防護エリアをなるべく狭く設定したい。安全性向上の観点からは、防護エリアに実際に物体が侵入してから物体が検出されるまでの時間は短い方が有利である。従って、防護エリアに侵入する物体を速やかに検出することが求められる。 The protected area is set by considering the time required from object detection to completion of deceleration or stopping of the hazard. That is, the size of the protection area is determined by the safe distance from the hazard (the distance that can guarantee that the hazard completes deceleration and stoppage before an object entering the protection area reaches the hazard). Also, the safe distance is determined in consideration of the response speed of the sensor, the operating speed of the hazard, braking performance, and the like. From the viewpoint of productivity, it is desirable to set the protection area as narrow as possible. From the viewpoint of improving safety, it is advantageous to shorten the time from when an object actually enters the protected area to when the object is detected. Therefore, it is required to quickly detect an object entering the protected area.

特開2016-197403号公報JP 2016-197403 A

しかしながら、エリアセンサの速度(距離情報の出力の周期)には性能的な限界がある。また、コスト上昇回避の観点から、高性能なセンサを採用できない場合もある。そのため、エリアセンサによる距離情報の出力周期が律速となり、防護エリアの設定や危険源の動作速度の設定が制約を受ける場合がある。従って、物体検出の応答速度を速めることに関して改善の余地があった。 However, the area sensor speed (distance information output cycle) has a performance limit. Also, from the viewpoint of avoiding cost increase, there are cases where a high-performance sensor cannot be adopted. Therefore, the output period of the distance information from the area sensor becomes rate-determining, and the setting of the protection area and the setting of the operation speed of the hazard may be restricted. Therefore, there is room for improvement in increasing the response speed of object detection.

本発明者らは、3次元空間に存在する物体を高精度に検出するために、エリアセンサとして、3次元距離センサの採用を検討している。このような3次元距離センサの場合、3次元距離情報の取得のためにある一定の処理時間を要することから、上記の課題がより顕著となる。 The inventors are considering adopting a three-dimensional distance sensor as an area sensor in order to detect an object existing in a three-dimensional space with high accuracy. In the case of such a three-dimensional distance sensor, it takes a certain amount of processing time to acquire the three-dimensional distance information, so the above problem becomes more pronounced.

ところで、特許文献1は、磁気センサやトルクセンサを2つ組み合わせて用いることで、検出の時間的分解能を高める技術を開示している。しかし、特許文献1の装置は、エリアセンサに関するものではない。 By the way, Patent Literature 1 discloses a technique for improving temporal resolution of detection by using a combination of two magnetic sensors and torque sensors. However, the device of Patent Literature 1 does not relate to area sensors.

本発明は、物体検出の応答速度を速める技術を提供することを目的とする。 An object of the present invention is to provide a technique for increasing the response speed of object detection.

上記目的を達成するために本発明は、以下の構成を採用する。 In order to achieve the above objects, the present invention employs the following configurations.

本発明の第一側面は、互いの測定可能領域の少なくとも一部が重なるように配置され、前記測定可能領域内の距離情報を周期的に出力する、複数の撮像手段と、複数の前記撮像
手段により出力された前記距離情報に基づいて物体を検出する物体検出手段と、複数の前記撮像手段による前記距離情報の出力タイミングを互いにずらすように制御する制御手段と、を有することを特徴とする物体検出システムを提供する。
A first aspect of the present invention is a plurality of imaging means arranged so that at least a part of each other's measurable areas overlaps, and periodically outputting distance information within the measurable areas; and a plurality of the imaging means. and control means for controlling output timings of the distance information from the plurality of imaging means so as to be shifted from each other. Provide a detection system.

「撮像手段」は、一例としてTOF(Time of Flight)センサである。「測定可能領域」は、例えば、各撮像手段の視野(画角の範囲)における3次元空間である。ただし、その奥行きについては、正確な距離を測定可能な距離範囲に限定されてもよい。 The “imaging means” is, for example, a TOF (Time of Flight) sensor. The “measurable area” is, for example, a three-dimensional space in the field of view (angle of view range) of each imaging means. However, the depth may be limited to a distance range in which an accurate distance can be measured.

この構成によれば、複数の撮像手段による距離情報の出力タイミングを互いにずらすように制御されるので、各撮像手段の双方からの距離情報がずれたタイミングで得られるので、見かけ上の応答速度が高まる。よって、物体検出の応答速度を速めることができる。 According to this configuration, since the output timings of the distance information from the plurality of imaging means are controlled to be shifted from each other, the distance information from both imaging means can be obtained at different timings, so the apparent response speed is increased. increase. Therefore, the response speed of object detection can be increased.

また、前記撮像手段の各々による距離情報の出力周期は共通であり、前記制御手段は、前記複数の撮像手段から、等時間間隔で前記距離情報が出力されるように制御してもよい。具体的には、前記撮像手段の数をn(nは2以上の整数)、前記出力周期をTとしたときに、前記制御手段は、n個の前記撮像手段から、T/nの時間間隔で前記距離情報が出力されるように制御してもよい。例えば、2つの撮像手段を用いる場合、両者からの距離情報の出力タイミングが互い違いとなるように制御される。これにより、応答速度を効率的に速めることができる。 Further, the output cycle of the distance information by each of the imaging means may be common, and the control means may control the distance information to be output from the plurality of imaging means at equal time intervals. Specifically, when the number of the imaging means is n (n is an integer equal to or greater than 2) and the output period is T, the control means controls the time interval of T/n from the n imaging means. may be controlled so that the distance information is output by . For example, when two imaging means are used, the output timings of the distance information from both are controlled to be staggered. Thereby, the response speed can be efficiently increased.

また、物体検出のための仮想的な防護エリアを設定する設定手段を有し、複数の前記撮像手段の測定可能領域が互いに重複する重複空間に、前記設定手段により設定された防護エリアが包含されるように、前記撮像手段の各々が配置されてもよい。これにより、防護エリアでの高い応答速度を確保することができる。 Further, it has setting means for setting a virtual protection area for object detection, and the protection area set by the setting means is included in an overlapping space in which the measurable areas of the plurality of imaging means overlap each other. Each of the imaging means may be arranged as follows. As a result, a high response speed can be secured in the protected area.

また、物体検出のための仮想的な防護エリアを設定する設定手段を有し、前記撮像手段の各々は前記距離情報と共に輝度情報も出力し、前記制御手段は、所望する防護エリアの指標となるマーカを配置した状態で前記撮像手段の各々により出力された前記輝度情報に基づいて、前記撮像手段の各々に対応する輝度画像を画面に表示させ、前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報とに基づいて、前記仮想的な防護エリアを設定するようにしてもよい。これにより、防護エリアの設定作業を補助することができる。 Further, setting means for setting a virtual protection area for object detection is provided, each of the imaging means outputs luminance information together with the distance information, and the control means serves as an index of a desired protection area. Based on the luminance information output by each of the imaging means with the markers arranged, the luminance image corresponding to each of the imaging means is displayed on the screen, and the setting means receives a user's input on the screen. The virtual protection area may be set based on the specified position and the output distance information. As a result, it is possible to assist the work of setting the protection area.

また、3つ以上の前記マーカが基準面に配置され、前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報と、前記マーカの各々に対応して前記基準面から鉛直方向に離れた位置を示す既知の高さ情報とに基づいて、前記仮想的な防護エリアを設定するようにしてもよい。あるいは、前記マーカは、基準面に配置された3つ以上の第1マーカと、前記第1マーカの各々に対応して前記基準面から鉛直方向に離れた位置に配置された第2マーカと、を含むようにしてもよい。 Also, three or more of the markers are arranged on a reference plane, and the setting means designates a position on the screen from the user, the output distance information, and the reference marker corresponding to each of the markers. The virtual protection area may be set based on known height information indicating a position away from the surface in the vertical direction. Alternatively, the markers include three or more first markers arranged on a reference plane, and second markers arranged at positions separated from the reference plane in the vertical direction corresponding to each of the first markers; may be included.

また、前記制御手段は、平面を規定する指標を基準面に配置した状態で前記撮像手段の各々により出力された前記距離情報に基づいて、前記撮像手段の各々を基準とする基準面を定義し、複数の前記撮像手段のうちいずれかの撮像手段を基準とする空間座標系に、定義された前記基準面と併せて、複数の前記撮像手段の互いに重複する測定可能領域を前記重複空間として3次元表示させ、前記設定手段は、前記空間座標系でのユーザからの指示に基づいて前記仮想的な防護エリアを設定するようにしてもよい。例えば、重複空間が表示された空間座標系での複数点の指定により防護エリアが設定される。これにより、防護エリアの設定作業を補助することができる。 Further, the control means defines a reference plane with each of the imaging means as a reference, based on the distance information output by each of the imaging means in a state in which an index defining a plane is placed on the reference plane. 3, in a spatial coordinate system based on any one of the plurality of imaging means, the overlapped measurable regions of the plurality of imaging means are defined as the overlapping space together with the defined reference plane; A dimension display may be performed, and the setting means may set the virtual protection area based on an instruction from the user in the spatial coordinate system. For example, a protected area is set by specifying a plurality of points in a spatial coordinate system in which overlapping spaces are displayed. As a result, it is possible to assist the work of setting the protection area.

また、前記平面を規定する指標は、少なくとも3つのマーカであってもよい。また、前
記撮像手段は、TOFセンサであってもよい。
Also, the indices defining the plane may be at least three markers. Also, the imaging means may be a TOF sensor.

本発明の第二側面は、作業機械と、共通のエリアを撮像できるように設置され、それぞれが所定の時間間隔で周期的に撮像する複数の撮像手段と、前記複数の撮像手段から出力される画像に基づいて前記エリアにある物体を検出する物体検出手段とを有する安全制御システムにおける動作を制御する制御装置であって、互いの撮像タイミングを前記時間間隔よりも短い時間ずらすように前記複数の撮像手段を制御する撮像制御手段と、前記物体検出手段の検出結果に基づいて前記作業機械の動作を制限する安全制御手段とを備えることを特徴とする制御装置を提供する。 A second aspect of the present invention is a work machine, a plurality of imaging means installed so as to be able to image a common area, each periodically imaging at a predetermined time interval, and output from the plurality of imaging means and an object detection means for detecting an object in the area based on an image, wherein the plurality of safety control systems are configured such that the imaging timings of the plurality of safety control systems are staggered by a time shorter than the time interval. A control device is provided, comprising imaging control means for controlling imaging means, and safety control means for restricting the operation of the working machine based on the detection result of the object detection means.

「作業機械」は例えばロボット、製造装置などである。「撮像手段」は、一例としてTOF(Time of Flight)センサである。「共通のエリア」は、例えば、複数撮像手段の視野(画角の範囲)が重なる3次元空間である。 A "working machine" is, for example, a robot, manufacturing equipment, or the like. The “imaging means” is, for example, a TOF (Time of Flight) sensor. The “common area” is, for example, a three-dimensional space in which the fields of view (ranges of angles of view) of a plurality of imaging means overlap.

この構成によれば、複数の撮像手段が撮像タイミングを互いにずらすように制御されるので、各撮像手段からの画像を撮像周期よりも短い時間間隔で得ることができ、見かけ上の撮像周期を高めることができる。よって、物体検出ならびに安全制御の応答速度を速めることが可能となる。 According to this configuration, the plurality of imaging means are controlled so that the imaging timings are shifted from each other, so images from each imaging means can be obtained at time intervals shorter than the imaging cycle, and the apparent imaging cycle is increased. be able to. Therefore, it is possible to increase the response speed of object detection and safety control.

本発明によれば、物体検出の応答速度を速めることができる。 According to the present invention, the response speed of object detection can be increased.

図1は、本発明の一実施の形態に係る物体検出システムの模式図である。FIG. 1 is a schematic diagram of an object detection system according to one embodiment of the present invention. 図2は、1つの3次元距離センサの測定可能領域を示す模式図である。FIG. 2 is a schematic diagram showing the measurable area of one three-dimensional distance sensor. 図3は、物体検出システムのブロック図である。FIG. 3 is a block diagram of an object detection system. 図4は、2つの3次元距離センサの測定動作を示すタイミングチャートである。FIG. 4 is a timing chart showing measurement operations of two three-dimensional distance sensors. 図5は、第1の手法におけるセンサ設置処理および防護エリア設定処理を示すフローチャートである。FIG. 5 is a flow chart showing sensor installation processing and protection area setting processing in the first method. 図6は、2つの画面に表示された輝度画像の例を示す図である。FIG. 6 is a diagram showing examples of luminance images displayed on two screens. 図7は、マーカの相対的な位置関係を特定する様子を示す概念図である。FIG. 7 is a conceptual diagram showing how the relative positional relationship of markers is specified. 図8は、防護エリアの表示例を示す図である。FIG. 8 is a diagram showing a display example of the protection area. 図9は、8つのマーカを備えるターゲットの例を示す図である。FIG. 9 is a diagram showing an example target with eight markers. 図10は、第2の手法におけるセンサ設置処理および防護エリア設定処理を示すフローチャートである。FIG. 10 is a flow chart showing sensor installation processing and protection area setting processing in the second method. 図11は、輝度画像および視野範囲の表示例を示す図である。FIG. 11 is a diagram showing a display example of a luminance image and a visual field range. 図12は、重複空間の表示例を示す模式的な概念図である。FIG. 12 is a schematic conceptual diagram showing a display example of overlapping spaces. 図13は、やり直し後の輝度画像および視野範囲の表示例を示す図である。FIG. 13 is a diagram showing a display example of the brightness image and the visual field range after redoing.

<適用例>
図1~図4を参照して、本発明に係る物体検出システムの適用例を説明する。図1は、本発明の一実施の形態に係る物体検出システム100の模式図である。図2は、1つの3次元距離センサの測定可能領域を示す模式図である。図3は、物体検出システム100のブロック図である。図4は、2つの3次元距離センサ10A、10B(以下、センサ10A、10Bと記す)の測定動作を示すタイミングチャートである。
<Application example>
An application example of the object detection system according to the present invention will be described with reference to FIGS. 1 to 4. FIG. FIG. 1 is a schematic diagram of an object detection system 100 according to one embodiment of the invention. FIG. 2 is a schematic diagram showing the measurable area of one three-dimensional distance sensor. FIG. 3 is a block diagram of the object detection system 100. As shown in FIG. FIG. 4 is a timing chart showing measurement operations of two three-dimensional distance sensors 10A and 10B (hereinafter referred to as sensors 10A and 10B).

センサ10A、10Bの構成は共通である。図2に示すように、センサ10Aの実質的
な測定可能領域RAの立体形状は、一例として概ね四角錐台となる。センサ10Aの視野のうち、正確な距離を測定可能な距離範囲は限定されるからである。センサ10Bの実質的な測定可能領域RBの立体形状は測定可能領域RAと同様である。図1に示すように、センサ10Aとセンサ10Bとは、互いの測定可能領域RA、RBの少なくとも一部が重なるように配置される。測定可能領域RA、RBが重複する3次元領域が重複空間Rxである。重複空間Rxに防護エリア41が包含されるように、センサ10A、10Bの各々が配置されている。
The configurations of the sensors 10A and 10B are common. As shown in FIG. 2, the three-dimensional shape of the substantial measurable area RA of the sensor 10A is approximately a truncated quadrangular pyramid as an example. This is because the distance range in which an accurate distance can be measured is limited in the field of view of the sensor 10A. The three-dimensional shape of the substantial measurable area RB of the sensor 10B is the same as the measurable area RA. As shown in FIG. 1, the sensors 10A and 10B are arranged such that at least a portion of their measurable regions RA and RB overlap each other. A three-dimensional area where the measurable areas RA and RB overlap is the overlapping space Rx. Each of the sensors 10A and 10B is arranged so that the protection area 41 is included in the overlapping space Rx.

ここで、防護エリア41は、物体検出のための仮想的な3次元領域であり、ロボットや製造装置等の作業機械(以下「危険源」とも呼ぶ)の近辺または周囲に設定される。防護エリア41は、安全規格に従って、危険源の動作範囲を考慮して定められる。例えば、防護エリア41内に人体等の物体が入ると危険源を低速駆動または停止させる等の安全制御が行われる。 Here, the protected area 41 is a virtual three-dimensional area for object detection, and is set in the vicinity of or around working machines such as robots and manufacturing equipment (hereinafter also referred to as "danger sources"). The protected area 41 is defined according to safety standards, taking into account the operating range of the hazard. For example, when an object such as a human body enters the protection area 41, safety control such as slow driving or stopping of the danger source is performed.

図3に示すように、センサ10A、10Bは各々、発光部11、受光部12および演算部13を備える。発光部11は光(例えば、赤外光)を出射し、受光部12は反射光を受光する。センサ10A、10Bには、一例として、光の飛行時間(Time of Flight:TOF
)から距離画像を取得するTOFセンサが採用される。例えば、投影光と反射光の位相差から時間差を推定する間接型TOFセンサが採用される。センサ10A、10Bは、3次元の距離情報および輝度情報を測定結果として周期的に出力する。センサ10A、10Bによる測定結果はセンサ制御ユニット50におけるセンサI/F14を介して制御部30に供給される。センサ10A、10Bは、センサI/F14を介して制御部30によって制御される。
As shown in FIG. 3, each of the sensors 10A and 10B has a light emitter 11, a light receiver 12 and a calculator 13. FIG. The light emitting portion 11 emits light (for example, infrared light), and the light receiving portion 12 receives reflected light. As an example, the sensors 10A and 10B have time of flight (TOF
), a TOF sensor is employed to acquire the range image from . For example, an indirect TOF sensor that estimates the time difference from the phase difference between projected light and reflected light is employed. The sensors 10A and 10B periodically output three-dimensional distance information and luminance information as measurement results. Measurement results by the sensors 10A and 10B are supplied to the control section 30 via the sensor I/F 14 in the sensor control unit 50. FIG. Sensors 10A and 10B are controlled by control unit 30 via sensor I/F 14 .

図4に示すように、センサ10A、10Bは各々、発光部11および受光部12による撮像処理と演算部13による演算処理(データ転送を含む)とを周期的に繰り返す。フレーム期間T1で、撮像処理と演算処理とが実行される。フレーム期間T1が1周期(出力周期)である。撮像処理においては、発光部11による発光のほか、露光、受光部12で受光された電荷の読み出し等が実行される。1回の撮像処理で、これらの動作が複数回実行されてもよい。演算処理においては、計測した光の量から間接的に時間を推定し、推定した時間から距離情報を生成する処理等が実行される。演算処理後は、測定結果(距離情報および輝度情報)が出力される。 As shown in FIG. 4, each of the sensors 10A and 10B periodically repeats imaging processing by the light emitting unit 11 and the light receiving unit 12 and arithmetic processing by the arithmetic unit 13 (including data transfer). An imaging process and an arithmetic process are performed in the frame period T1. A frame period T1 is one cycle (output cycle). In the imaging process, in addition to light emission by the light emitting unit 11, exposure, readout of charges received by the light receiving unit 12, and the like are executed. These operations may be performed multiple times in one imaging process. In the arithmetic processing, processing such as indirectly estimating time from the measured amount of light and generating distance information from the estimated time is executed. After arithmetic processing, measurement results (distance information and luminance information) are output.

ここで、制御手段の一例としての制御部30は、センサ10Aとセンサ10Bとで、測定結果の出力タイミングを互いにずらすように制御する。一例として、制御部30は、センサ10A、10Bから等時間間隔で測定結果が出力されるように各センサ10A、10Bを制御する。例えばセンサが2つの場合、センサ10Aからの出力とセンサ10Bからの出力との間隔である周期T2はT1/2に設定される。すなわち、センサがn個(nは2以上の整数)の場合、n個のセンサからT1/nの時間間隔で測定結果が出力されるように制御すればよい。測定可能領域RA、RBのうち重複空間Rxでない領域においては、センサ10A、10Bのいずれかからしか測定結果が得られないので、測定結果の取得周期はフレーム期間T1となる。しかし、重複空間Rxでは、センサ10A、10Bの双方からの測定結果が得られるので、周期T2で測定結果が得られる。従って、応答速度が見かけ上、2倍になる。言い換えると、センサ10Aが演算処理を行っている期間を利用してセンサ10Bが撮像を行うことで、実質的にフレームレートが高まる。これにより、重複空間Rx内に包含されるように防護エリア41を設定することで、防護エリア41では応答速度を確実に高めること可能となる。 Here, the control unit 30, which is an example of control means, controls the output timings of the measurement results of the sensor 10A and the sensor 10B to be shifted from each other. As an example, the control unit 30 controls the sensors 10A and 10B so that the measurement results are output from the sensors 10A and 10B at equal time intervals. For example, when there are two sensors, the period T2, which is the interval between the output from the sensor 10A and the output from the sensor 10B, is set to T1/2. That is, when there are n sensors (where n is an integer equal to or greater than 2), control should be performed so that measurement results are output from the n sensors at time intervals of T1/n. In the measurable areas RA and RB that are not the overlapping space Rx, the measurement result is obtained only from one of the sensors 10A and 10B, so the measurement result acquisition cycle is the frame period T1. However, in the overlapping space Rx, measurement results are obtained from both the sensors 10A and 10B, so measurement results are obtained at the period T2. Therefore, the response speed is apparently doubled. In other words, the sensor 10B captures images while the sensor 10A is performing arithmetic processing, thereby substantially increasing the frame rate. Accordingly, by setting the protection area 41 so as to be included in the overlapping space Rx, it is possible to reliably increase the response speed in the protection area 41 .

ところで、所望する防護エリアが重複空間Rxに包含されるようにするには、センサ10A、10Bの位置および向きを適切に調整して設置する必要がある。しかし、計測に用
いる光(赤外光)は目に見えないため、ユーザは、重複空間Rxがどこに形成されているかを把握することが困難である。そこで、ユーザによるセンサ10A、10Bの設置を手助けするために、現在の設置状態における重複空間Rxないし防護エリア41をユーザが視認できるようにする。このことを概説する。
By the way, in order for the desired protection area to be included in the overlapping space Rx, it is necessary to appropriately adjust the positions and orientations of the sensors 10A and 10B. However, since the light (infrared light) used for measurement is invisible, it is difficult for the user to grasp where the overlapping space Rx is formed. Therefore, in order to help the user install the sensors 10A and 10B, the user can visually recognize the overlapping space Rx or the protection area 41 in the current installation state. This is outlined.

第1の手法(後述)において、ユーザは、所望する防護エリアの指標となるマーカM1~M4(図1)を床面等に配置した状態で、センサ10A、10Bに測定動作を実行させる。防護エリアが直方体である場合を例にとると、マーカM1~M4は、防護エリアの底面の頂点に配置される。さらにユーザは、マーカM1~M4の各々から、防護エリアの上面の頂点までの高さ情報を制御部30に与える。そして、センサ10A、10Bからの出力から得られたそれぞれの輝度画像上で、ユーザはマーカM1~M4が表示されている位置を指定(制御部30に教示)する。 In the first method (described later), the user causes the sensors 10A and 10B to perform measurement operations while placing the markers M1 to M4 (FIG. 1), which serve as indicators of the desired protection area, on the floor or the like. Taking the case where the protection area is a rectangular parallelepiped as an example, the markers M1 to M4 are arranged at the vertices of the bottom surface of the protection area. Further, the user provides the control unit 30 with height information from each of the markers M1 to M4 to the apex of the upper surface of the protection area. Then, the user specifies (instructs the control unit 30) the positions where the markers M1 to M4 are displayed on the luminance images obtained from the outputs from the sensors 10A and 10B.

すると、制御部30は、2つの距離画像における同じ位置の画素から各マーカまでの距離を決定し、各センサと防護エリアの8つの頂点との相対的な位置関係を把握する。これを元に、設定手段の一例としての制御部30は、図8に示すように、8つの頂点で規定される防護エリア41を設定すると共に、画面上に表示させる。ユーザは、表示された防護エリア41が適切でないと判断すれば、センサ10A、10Bの位置調整をやり直すことができる。 Then, the control unit 30 determines the distance from the pixel at the same position in the two distance images to each marker, and grasps the relative positional relationship between each sensor and the eight vertices of the protection area. Based on this, the control unit 30 as an example of setting means sets a protection area 41 defined by eight vertices and displays it on the screen as shown in FIG. If the user determines that the displayed protection area 41 is not appropriate, the user can readjust the positions of the sensors 10A and 10B.

また、他のやり方(第2の手法;後述)として、ユーザは、平面を規定する指標であるマーカM1~M3(図11)を床面等に配置した状態で、センサ10A、10Bに測定動作を実行させる。測定結果から、センサ10A、10Bの各々を基準とする基準面40が定義される。制御部30は、例えばセンサ10Aを基準とする空間座標系に、定義された基準面40と併せて、重複空間Rxを3次元表示させる(図12)。ユーザは、重複空間Rx内で、所望する防護エリアの頂点などを指定すると、それに応じた防護エリア41が設定され、画面上に表示される。ユーザは、表示された防護エリア41が適切でないと判断すれば、センサ10A、10Bの位置調整をやり直すことができる。 As another method (second method; described later), the user places markers M1 to M3 (FIG. 11), which are indices defining a plane, on the floor or the like, and performs measurement operations on the sensors 10A and 10B. to run. From the measurement results, a reference plane 40 is defined with respect to each of the sensors 10A and 10B. The control unit 30 three-dimensionally displays the overlapping space Rx together with the defined reference plane 40 in a spatial coordinate system based on, for example, the sensor 10A (FIG. 12). When the user designates the vertex of a desired protection area within the overlapping space Rx, the corresponding protection area 41 is set and displayed on the screen. If the user determines that the displayed protection area 41 is not appropriate, the user can readjust the positions of the sensors 10A and 10B.

物体検出手段の一例としての制御部30は、センサ10A、10Bにより出力された距離情報に基づいて物体を検出する。制御部30は、センサ10A、10Bのいずれかまたは双方で測定可能領域内に該当する距離を示す距離情報が得られた場合に、「測定可能領域RAまたは測定可能領域RB内に物体有り」と判定(検出)することができる。また、制御部30は、センサ10A、10Bのいずれかまたは双方で重複空間Rx内に該当する距離を示す距離情報が得られた場合に、「重複空間Rx内に物体有り」と判定することができる。特に、防護エリア41は重複空間Rx内にあるので、制御部30は、防護エリア41に物体が入ったか否かを高い応答速度で判定することができる。安全制御手段の一例としての制御部30は、物体検出結果に基づいて作業機械(危険源)の動作を制限する安全制御を実行する。防護エリア41については高い応答速度で物体の検出が可能であるため、作業機械の停止や減速といった安全制御も速やかに行うことができる。 The control unit 30, which is an example of object detection means, detects an object based on the distance information output from the sensors 10A and 10B. When one or both of the sensors 10A and 10B obtain distance information indicating the distance corresponding to the measurable area, the control unit 30 determines that "there is an object in the measurable area RA or the measurable area RB". It can be determined (detected). In addition, when either or both of the sensors 10A and 10B obtain distance information indicating the distance within the overlapping space Rx, the control unit 30 can determine that "there is an object within the overlapping space Rx." can. In particular, since the protection area 41 is within the overlapping space Rx, the control unit 30 can determine whether or not an object has entered the protection area 41 at a high response speed. The control unit 30, which is an example of a safety control means, executes safety control to limit the operation of the working machine (hazard source) based on the object detection result. Since objects can be detected in the protection area 41 at a high response speed, safety control such as stopping or decelerating the work machine can be performed quickly.

以上の適用例は、本発明の理解を補助するための例示であり、本発明を限定解釈することを意図するものではない。 The above application examples are examples to aid understanding of the present invention, and are not intended to limit interpretation of the present invention.

<実施形態>
次に、物体検出システム100の構成および防護エリアの設定の手順等を詳細に説明する。まず、図3で、物体検出システム100の全体構成を説明する。
<Embodiment>
Next, the configuration of the object detection system 100, the procedure for setting the protection area, and the like will be described in detail. First, the overall configuration of the object detection system 100 will be described with reference to FIG.

物体検出システム100は、センサ制御ユニット50およびセンサ10A、10Bを含む。センサ制御ユニット50は、制御部30、センサI/F14、表示部34、操作入力
部35、記憶部36、通信I/F37を備える。制御部30は、CPU31、ROM32、RAM33および不図示のタイマ等を備える。ROM32には、CPU31が実行する制御プログラムが格納されている。RAM33は、CPU31が制御プログラムを実行する際のワークエリアを提供する。
Object detection system 100 includes sensor control unit 50 and sensors 10A, 10B. The sensor control unit 50 includes a control section 30 , a sensor I/F 14 , a display section 34 , an operation input section 35 , a storage section 36 and a communication I/F 37 . The control unit 30 includes a CPU 31, a ROM 32, a RAM 33, a timer (not shown), and the like. A control program executed by the CPU 31 is stored in the ROM 32 . The RAM 33 provides a work area when the CPU 31 executes the control program.

表示部34は、LCD等で構成され、各種情報を表示する。表示部34は、2つ以上の画面を有するか、または画面分割により2つ以上の画面を表示する機能を有してもよい。操作入力部35は、ユーザからの各種指示の入力を受け付け、入力情報をCPU31に送る。また、操作入力部35は、CPU31からの指示に基づきユーザに対して音声やランプ等による報知を行う機能を有してもよい。記憶部36は例えば不揮発メモリで構成される。記憶部36は外部メモリであってもよい。通信I/F37は、制御部30と外部装置との間で有線または無線による通信を行う。 The display unit 34 is configured by an LCD or the like, and displays various information. The display unit 34 may have two or more screens, or may have a function of displaying two or more screens by dividing the screen. The operation input unit 35 receives input of various instructions from the user and sends input information to the CPU 31 . Further, the operation input unit 35 may have a function of notifying the user by voice, lamp, or the like based on instructions from the CPU 31 . The storage unit 36 is composed of, for example, a non-volatile memory. The storage unit 36 may be an external memory. Communication I/F 37 performs wired or wireless communication between control unit 30 and an external device.

CPU31は、センサI/F14を介してセンサ10A、10Bを駆動し、測定動作のタイミングを制御する。上述したように、CPU31は、センサ10A、10Bの各々が順次、等時間間隔(周期T2)で測定結果を出力するようにセンサ10A、10Bを制御する(図4参照)。少なくとも防護エリア41(図1参照)においては、周期T2というフレームレートで測定結果が得られるので、高速での物体検出が可能となる。 The CPU 31 drives the sensors 10A and 10B via the sensor I/F 14 and controls the timing of the measurement operation. As described above, CPU 31 controls sensors 10A and 10B so that each of sensors 10A and 10B sequentially outputs measurement results at equal time intervals (cycle T2) (see FIG. 4). At least in the protection area 41 (see FIG. 1), measurement results can be obtained at a frame rate of period T2, so high-speed object detection is possible.

次に、指標を用いて、センサ10A、10Bの設置や防護エリアの設定の作業を補助する処理について説明する。この処理における手法には大別して第1、第2の手法がある。第1、第2の手法のいずれを採用してもよい。 Next, a description will be given of the process of assisting the installation of the sensors 10A and 10B and the setting of the protection area using indices. Techniques in this processing are broadly classified into first and second techniques. Either of the first and second techniques may be adopted.

<第1の手法>
図5~図9で第1の手法について説明する。
<First method>
The first method will be described with reference to FIGS. 5 to 9. FIG.

図5は、第1の手法におけるセンサ設置処理および防護エリア設定処理を示すフローチャートである。このセンサ設置処理はユーザによって実行される。また、防護エリア設定処理は、ROM32に格納されたプログラムをCPU31がRAM33に展開して実行することにより実現される。防護エリア設定処理は、ユーザの指示により開始され、センサ設置処理と並行してCPU31により実行される。 FIG. 5 is a flow chart showing sensor installation processing and protection area setting processing in the first method. This sensor installation processing is executed by the user. The protection area setting process is realized by the CPU 31 developing a program stored in the ROM 32 in the RAM 33 and executing the program. The protection area setting process is started by a user's instruction, and is executed by the CPU 31 in parallel with the sensor installation process.

所望する防護エリアが直方体であることを想定していることから、第1の手法では、防護エリアの指標となる4つのマーカM1~M4を用いる。ユーザは、図1に示すように、マーカM1~M4を、基準面としての床面上において所望する防護エリアの底面の頂点に配置する。マーカM1~M4としては例えば、シールなどが採用されるが、立体物であってもよい。測距を確実に行うために、マーカM1~M4の明度は高い方がよい。 Since it is assumed that the desired protection area is a rectangular parallelepiped, the first method uses four markers M1 to M4 as indicators of the protection area. As shown in FIG. 1, the user arranges the markers M1 to M4 at the vertices of the bottom surface of the desired protection area on the floor surface as the reference surface. As the markers M1 to M4, for example, stickers are adopted, but they may be three-dimensional objects. In order to reliably perform distance measurement, the brightness of the markers M1 to M4 should be high.

なお、マーカM1~M4は独立した部材でなくてもよく、マーカM1~M4の相対的な位置関係を正確に設定するために、マーカ同士を連結部材で連結したものを用いてもよい。また、第1の手法においては、ユーザは、所望する防護エリアの上面の頂点までの高さ情報を制御部30に与える。この高さ情報は、マーカの各々に対応して基準面(床面)から鉛直方向に離れた位置を示す既知の値であり、RAM33に記憶される。なお、マーカM1~M4を設置する基準面は床面に限らず、机面等の平坦面であってもよい。 Note that the markers M1 to M4 may not be independent members, and in order to accurately set the relative positional relationship of the markers M1 to M4, the markers may be connected by connecting members. In the first method, the user provides the control unit 30 with height information up to the vertex of the upper surface of the desired protection area. This height information is a known value indicating the position apart from the reference surface (floor surface) in the vertical direction corresponding to each marker, and is stored in the RAM 33 . The reference surface on which the markers M1 to M4 are placed is not limited to the floor surface, and may be a flat surface such as a desk surface.

まず、ステップS101では、ユーザは、床面上において、所望する防護エリアの底面の頂点の位置にマーカM1~M4を設置(配置)する。なお、マーカM1~M4が既に設置済みの場合に、ユーザは、マーカM1~M4の設置のやり直しをしてもよい。ステップS102では、ユーザは、センサ10A、10Bを設置するか、または、設置済みの場合は必要に応じて位置を調整する。センサ10A、10Bの位置には、3次元方向の位置だ
けでなく、向きも含まれる。ユーザは、マーカM1~M4が各センサの視野(画角)に入るようにセンサ10A、10Bの位置や向きを決める。ステップS103では、ユーザは、センサ10A、10Bによる測距を実行するようCPU31に対して指示する(測距指示)。ここでいう測距は、距離情報だけでなく輝度情報を取得することも含む。
First, in step S101, the user sets (arranges) the markers M1 to M4 on the floor at the apexes of the bottom surface of the desired protection area. Note that if the markers M1 to M4 have already been placed, the user may redo the placement of the markers M1 to M4. In step S102, the user installs the sensors 10A, 10B or, if installed, adjusts their positions as necessary. The positions of the sensors 10A and 10B include not only three-dimensional positions but also orientations. The user determines the positions and orientations of the sensors 10A and 10B so that the markers M1 to M4 are within the field of view (angle of view) of each sensor. In step S103, the user instructs the CPU 31 to perform distance measurement by the sensors 10A and 10B (distance measurement instruction). Distance measurement here includes acquisition of luminance information as well as distance information.

一方、ステップS201では、CPU31は、ユーザからの測距指示を待ち、測距指示があると、ステップS202に進む。ステップS202では、CPU31は、センサ10A、10Bに測距を実行させる。センサ10A、10Bからは、それぞれの測定結果が交互にCPU31に供給される。CPU31は、一定期間の測定結果を得ると、ステップS203で、防護エリア設定処理を実行する。この防護エリア設定処理では、まず、CPU31は、測定結果のうち各センサにより出力された輝度情報に基づいて、各々に対応する輝度画像を画面に表示させる。 On the other hand, in step S201, the CPU 31 waits for a distance measurement instruction from the user, and when there is a distance measurement instruction, the process proceeds to step S202. In step S202, the CPU 31 causes the sensors 10A and 10B to perform distance measurement. Measurement results are alternately supplied to the CPU 31 from the sensors 10A and 10B. When the CPU 31 obtains the measurement result for a certain period of time, the CPU 31 executes a protection area setting process in step S203. In this protected area setting process, first, the CPU 31 causes the screen to display a brightness image corresponding to each sensor based on the brightness information output from each sensor among the measurement results.

図6は、2つの画面に表示された輝度画像の例を示す図である。表示部34には、画面34Aと画面34Bとが表示される。センサ10A、10Bにそれぞれ対応する輝度画像が、画面34A、34Bに並んで表示される。それぞれの輝度画像において、マーカM1~M4に対応する部分がとりわけ明るく視認される。ユーザは、画面上における4つの明るい位置から、画面上における防護エリアの底面の頂点の位置を認識することができる。 FIG. 6 is a diagram showing examples of luminance images displayed on two screens. The display unit 34 displays a screen 34A and a screen 34B. Brightness images corresponding to the sensors 10A and 10B are displayed side by side on the screens 34A and 34B. In each luminance image, the portions corresponding to the markers M1 to M4 are particularly bright. The user can recognize the position of the apex of the bottom surface of the protected area on the screen from the four bright positions on the screen.

画面34A、34Bが表示されると、ステップS104で、ユーザは、それぞれの画面上でマーカM1~M4が表示されている位置を指定することで、マーカM1~M4の位置を制御部30に教示する。ここでの位置の指定方法は問わないが、例えば、マウスカーソルを該当位置に合わせて確定ボタンを押す、等の操作による。数値により画面上の座標を入力してもよい。 When the screens 34A and 34B are displayed, in step S104, the user instructs the control unit 30 of the positions of the markers M1 to M4 by specifying the positions where the markers M1 to M4 are displayed on the respective screens. do. The method of specifying the position here is not limited, but for example, an operation such as moving the mouse cursor to the corresponding position and pressing the confirm button is performed. You may input the coordinate on a screen with a numerical value.

画面上での位置が指定されると、CPU31は、防護エリア設定処理(S203)において、さらに次のようにして各センサと防護エリアの8つの頂点との相対的な位置関係を把握する。 When the position on the screen is specified, the CPU 31 further grasps the relative positional relationship between each sensor and the eight vertices of the protection area in the protection area setting process (S203) as follows.

図7は、マーカM1~M4の相対的な位置関係を特定する様子を示す概念図である。図7では、理解を容易にするために、防護エリアの8つの頂点のうちマーカM1~M4について示してある。 FIG. 7 is a conceptual diagram showing how the relative positional relationships of the markers M1 to M4 are specified. In FIG. 7, markers M1 to M4 of the eight vertices of the protection area are shown for easy understanding.

まず、CPU31は、センサ10Aから得られた距離情報に基づく距離画像から、センサ10Aの原位置を基準とした座標系におけるマーカM1~M4の3次元座標を求める(図7のF1)。同様に、CPU31は、センサ10Bから得られた距離情報に基づく距離画像から、センサ10Bの原位置を基準とした座標系におけるマーカM1~M4の3次元座標を求める(図7のF2)。 First, the CPU 31 obtains three-dimensional coordinates of the markers M1 to M4 in a coordinate system based on the original position of the sensor 10A from the distance image based on the distance information obtained from the sensor 10A (F1 in FIG. 7). Similarly, the CPU 31 obtains the three-dimensional coordinates of the markers M1 to M4 in the coordinate system based on the original position of the sensor 10B from the distance image based on the distance information obtained from the sensor 10B (F2 in FIG. 7).

そして、CPU31は、それぞれの距離画像における同じ位置の画素から、マーカM1~M4の各々までの距離を決定する。すなわち、例えばCPU31は、F1でのマーカM1の3次元座標とF2でのマーカM1の3次元座標とが同じ点であると決定する。同様にしてCPU31は、F1でのマーカM2、M3、M4の3次元座標とF2でのマーカM2、M3、M4の3次元座標とが同じ点であると決定する。これらの決定を条件として、CPU31は、F3で示すように、グローバル座標系(XYZ)においては、F1でのマーカM1~M4がF2でのマーカM1~M4と同じ位置を指していると決定する。 Then, the CPU 31 determines the distances from the pixels at the same position in each distance image to each of the markers M1 to M4. That is, for example, the CPU 31 determines that the three-dimensional coordinates of the marker M1 in F1 and the three-dimensional coordinates of the marker M1 in F2 are the same point. Similarly, the CPU 31 determines that the three-dimensional coordinates of the markers M2, M3 and M4 in F1 and the three-dimensional coordinates of the markers M2, M3 and M4 in F2 are the same point. Subject to these determinations, CPU 31 determines that markers M1-M4 in F1 point to the same positions as markers M1-M4 in F2 in the global coordinate system (XYZ), as indicated by F3. .

図7では4点についてだけ示したが、実際には、マーカの各々に対応する高さ情報を用いて、防護エリアの8つの頂点について図7で示したような処理が実行されることで、各センサと防護エリアの8つの頂点との相対的な位置関係が把握される。高さ情報は、ステ
ップS103の実行以前にユーザが入力することでRAM33に記憶される。グローバル座標系での8つの頂点を決定すると、CPU31は、防護エリア41を設定する。なお、RAM33に記憶されている高さ情報を基に、防護エリアの上側の4つの頂点の座標を計算したときに、もし、上側の頂点の座標がセンサ10A、10Bのいずれか又は両方の測定可能領域の外側であることが判明した場合(つまり、防護エリアがセンサの測定可能領域内に収まっていない場合)には、CPU31はその旨をユーザに通知し、高さ情報の再入力やセンサ位置の調整を促してもよい。
Although only four points are shown in FIG. 7, the height information corresponding to each marker is actually used to perform the processing shown in FIG. A relative positional relationship between each sensor and the eight vertices of the protected area is grasped. The height information is stored in the RAM 33 by being input by the user before execution of step S103. After determining the eight vertices in the global coordinate system, the CPU 31 sets the protection area 41 . Note that when the coordinates of the upper four vertices of the protection area are calculated based on the height information stored in the RAM 33, if the coordinates of the upper vertices are measured by either or both of the sensors 10A and 10B, If it is found to be outside the measurable area (that is, if the protected area is not within the measurable area of the sensor), the CPU 31 notifies the user to that effect, re-inputs the height information, or You may be prompted to adjust the position.

ステップS204で、CPU31は、設定した防護エリア41を表示させる。図8は、防護エリア41の表示例を示す図である。一例として、CPU31は、センサ10Aの画角における画面に、床面である基準面40と共に、防護エリア41を立体的に表示させる。これにより、ユーザは、現在のセンサ10A、10Bの設置状態における防護エリア41の位置を視認することができる。なお、防護エリア41は、センサ10Bの画角による画面に表示されてもよいし、センサ10A、10Bの画角による2画面に並べて表示されてもよい。 In step S204, the CPU 31 causes the set protection area 41 to be displayed. FIG. 8 is a diagram showing a display example of the protection area 41. As shown in FIG. As an example, the CPU 31 stereoscopically displays the protection area 41 together with the reference plane 40, which is the floor surface, on the screen at the angle of view of the sensor 10A. Thereby, the user can visually recognize the position of the protection area 41 in the current installation state of the sensors 10A and 10B. The protection area 41 may be displayed on the screen with the angle of view of the sensor 10B, or may be displayed side by side on two screens with the angles of view of the sensors 10A and 10B.

ここで、防護エリア41の設定に関し、CPU31は、グローバル座標系(センサ10A、10Bで共通の座標系)において防護エリア41の各頂点の座標を特定することで、防護エリア41が占める3次元の領域を規定してもよい。あるいは、CPU31は、センサ10A、10Bの原位置を基準とする画素ごとの奥行き情報(mm~mmの範囲等)を特定することで、防護エリア41が占める3次元の領域を規定してもよい。 Here, regarding the setting of the protection area 41, the CPU 31 specifies the coordinates of each vertex of the protection area 41 in the global coordinate system (the coordinate system common to the sensors 10A and 10B), thereby obtaining a three-dimensional image occupied by the protection area 41. A region may be specified. Alternatively, the CPU 31 may define the three-dimensional area occupied by the protection area 41 by specifying depth information (range of mm to mm, etc.) for each pixel based on the original positions of the sensors 10A and 10B. .

ステップS105では、ユーザは、画面に表示された防護エリア41を見て、適切であれば、この防護エリア41で確定することを示すOK指示を入力し、適切でなく設置をやり直したい場合は、やり直しの指示を入力する。一方、ステップS205では、CPU31は、ユーザからのOK指示またはやり直しの指示を待つ。やり直しの指示が入力された場合は、ステップS105からステップS101に戻ると共に、ステップS205からステップS201に戻る。従って、この場合、ユーザは、ステップS101でマーカの設置のやり直しができ、さらにステップS102でセンサ10A、10Bの設置のやり直しができる。物体検出システム100においては、測距指示を待って測距が再度実行される。 In step S105, the user looks at the protection area 41 displayed on the screen, and if it is appropriate, inputs an OK instruction indicating that the protection area 41 is to be fixed. Enter redo instructions. On the other hand, in step S205, CPU 31 waits for an OK instruction or a redo instruction from the user. If an instruction to redo is input, the process returns from step S105 to step S101 and from step S205 to step S201. Therefore, in this case, the user can redo the placement of the markers in step S101 and redo the placement of the sensors 10A and 10B in step S102. Object detection system 100 waits for a distance measurement instruction and executes distance measurement again.

OK指示が入力された場合は、図5に示す処理は終了する。この場合、防護エリア41の設定は確定し、CPU31は、その後の物体検出等の処理や安全制御に移行することができる。 If the OK instruction is input, the processing shown in FIG. 5 ends. In this case, the setting of the protection area 41 is finalized, and the CPU 31 can proceed to subsequent processes such as object detection and safety control.

このように第1の手法によれば、ユーザがマーカを設置して測距させた後、輝度画像上で8つの頂点を指定することで防護エリア41が設定されるので、防護エリア41の設定作業を補助することができる。 As described above, according to the first method, the protected area 41 is set by specifying eight vertices on the luminance image after the user sets the marker and measures the distance. Can assist with work.

なお、第1の手法において、防護エリア41の設定には、マーカM1~M4と高さ情報とを用いたが、これに限定されず、図9に例示するように、8頂点に対応するマーカを用いてもよい。 In the first method, the markers M1 to M4 and the height information are used to set the protection area 41, but the present invention is not limited to this. may be used.

図9は、8つのマーカを備えるターゲットの例を示す図である。このターゲットは、第1マーカ(マーカM1~M4)と、第1マーカの各々に対応して基準面40から鉛直方向に離れた位置に配置された第2マーカ(マーカM5~M8)とを含む。底面側のマーカM1~M4は矩形をなすように連結部材42で連結され、上面側のマーカM5~M8も矩形をなすように連結部材42で連結されている。さらに、マーカM1~M4とマーカM5~M8とも連結部材42で連結されている。マーカM1~M4とマーカM5~M8との位置が決まっているので、上記した高さ情報を与える必要がない。その他の処理においては、
図5で説明したものと同じである。
FIG. 9 is a diagram showing an example target with eight markers. This target includes first markers (markers M1 to M4) and second markers (markers M5 to M8) arranged at positions separated from the reference plane 40 in the vertical direction corresponding to each of the first markers. . The markers M1 to M4 on the bottom side are connected by a connecting member 42 to form a rectangle, and the markers M5 to M8 on the top side are also connected by a connecting member 42 to form a rectangle. Furthermore, the markers M1 to M4 and the markers M5 to M8 are also connected by a connecting member . Since the positions of the markers M1 to M4 and the markers M5 to M8 are fixed, it is not necessary to give the above height information. In other processing,
It is the same as that explained in FIG.

<第2の手法>
図10~図13で第2の手法について説明する。
<Second method>
The second method will be described with reference to FIGS. 10 to 13. FIG.

図10は、第2の手法におけるセンサ設置処理および防護エリア設定処理を示すフローチャートである。このセンサ設置処理はユーザによって実行される。また、防護エリア設定処理は、ROM32に格納されたプログラムをCPU31がRAM33に展開して実行することにより実現される。防護エリア設定処理は、ユーザの指示により開始され、センサ設置処理と並行してCPU31により実行される。 FIG. 10 is a flow chart showing sensor installation processing and protection area setting processing in the second method. This sensor installation processing is executed by the user. The protection area setting process is realized by the CPU 31 developing a program stored in the ROM 32 in the RAM 33 and executing the program. The protection area setting process is started by a user's instruction, and is executed by the CPU 31 in parallel with the sensor installation process.

まず、ステップS301では、ユーザは、マーカM1~M3を床面上に設置する。ここで、第2の手法におけるマーカM1~M3は、平面を規定する指標であるので、直線上に並ばないように同一平面上に配置すればよく、所望する防護エリアの底面の頂点に配置する必要は必ずしもない。なお、マーカM1~M3が既に設置済みの場合に、ユーザは、マーカM1~M3の設置のやり直しをしてもよい。ステップS302では、ユーザは、センサ10A、10Bを設置するか、または、設置済みの場合は必要に応じて位置を調整する。ユーザは、マーカM1~M3が各センサの視野(画角)に入るようにセンサ10A、10Bの位置や向きを決める。なお、マーカの代わりとなる目印が床面にすでに存在する場合には、あらためてマーカを設置する必要はない。例えば、床面に、目印となるような図形や模様が描かれていたり、目印となるような特徴的なオブジェクトが存在したりし、ユーザが座標教示時に目視で整合が取れる場合には、マーカの代替となり得る。 First, in step S301, the user places markers M1 to M3 on the floor. Here, since the markers M1 to M3 in the second method are indices that define a plane, they may be placed on the same plane so as not to line up on a straight line, and placed at the vertices of the bottom surface of the desired protection area. Not necessarily. Note that if the markers M1 to M3 have already been placed, the user may redo the placement of the markers M1 to M3. In step S302, the user installs the sensors 10A, 10B or, if already installed, adjusts their positions as needed. The user determines the positions and orientations of the sensors 10A and 10B so that the markers M1 to M3 are within the field of view (angle of view) of each sensor. Note that if there is already a mark on the floor to replace the marker, there is no need to install the marker again. For example, if a figure or pattern that serves as a mark is drawn on the floor surface, or if there is a characteristic object that serves as a mark, and the user can visually match when teaching the coordinates, the marker is used. can be an alternative to

ステップS303、S401、S402では、図5のステップS103、S201、S202と同様の処理が実行される。CPU31は、一定期間の測定結果を得ると、ステップS403で、重複空間表示処理を実行する。この処理を図11、図12で説明する。 In steps S303, S401 and S402, the same processes as in steps S103, S201 and S202 of FIG. 5 are executed. When the CPU 31 obtains the measurement result for the certain period of time, it executes overlapping space display processing in step S403. This processing will be described with reference to FIGS. 11 and 12. FIG.

図11は、輝度画像および視野範囲の表示例を示す図である。図6と同様に、センサ10A、10Bにそれぞれ対応する輝度画像が、画面34A、34Bに並んで表示される。それぞれの輝度画像において、マーカM1~M3に対応する部分がとりわけ明るく視認される。 FIG. 11 is a diagram showing a display example of a luminance image and a visual field range. Similar to FIG. 6, luminance images corresponding to the sensors 10A and 10B are displayed side by side on the screens 34A and 34B. In each luminance image, the portions corresponding to the markers M1 to M3 are particularly bright.

CPU31は、測定結果における距離情報に基づいて、センサ10A、10Bの各々を基準とする基準面40を定義する。すなわち、画面34A上におけるマーカM1~M3の各位置と、画面34B上におけるマーカM1~M3の各位置とがグローバル座標系において同じ位置を指すことから、CPU31は、マーカM1~M3の各位置と、センサ10A、10Bから取得された距離情報とに基づいて、それぞれの基準面40を定義することができる。 CPU 31 defines a reference plane 40 based on each of sensors 10A and 10B based on the distance information in the measurement result. That is, since the positions of the markers M1 to M3 on the screen 34A and the positions of the markers M1 to M3 on the screen 34B point to the same positions in the global coordinate system, the CPU 31 determines the positions of the markers M1 to M3. , and the distance information obtained from the sensors 10A, 10B, each reference plane 40 can be defined.

そして、CPU31は、例えば、画面34Aに、センサ10Aを基準とする空間座標系に、定義された基準面40と併せて、センサ10Bの視野範囲43を立体表示させる。視野範囲43は、測定可能領域RB(図1)に相当する立体形状である。なお、画面34Bにおいて、センサ10Bを基準とする空間座標系に、定義された基準面40と併せて、センサ10Aの視野範囲(測定可能領域RAに相当する立体形状)を立体表示させてもよい。これら双方の視野範囲を2画面に並べて表示してもよい。 Then, for example, the CPU 31 three-dimensionally displays the visual field range 43 of the sensor 10B on the screen 34A together with the defined reference plane 40 in the spatial coordinate system with the sensor 10A as a reference. The visual field range 43 has a three-dimensional shape corresponding to the measurable area RB (FIG. 1). In the screen 34B, the visual field range of the sensor 10A (three-dimensional shape corresponding to the measurable area RA) may be stereoscopically displayed together with the defined reference plane 40 in the spatial coordinate system based on the sensor 10B. . Both of these visual field ranges may be displayed side by side on two screens.

その後、例えば、ユーザからの指示に応じて、視野範囲43の表示から重複空間Rxの表示へと遷移する。図12は、重複空間Rxの表示例を示す模式的な概念図である。重複空間Rxの形状は、センサ10A、10Bの視野範囲同士(測定可能領域同士)の重なり方で決まり、多くの場合は多面体形状となるが、図12では模式的に球体で示してある。 After that, for example, the display of the visual field range 43 is changed to the display of the overlapping space Rx according to an instruction from the user. FIG. 12 is a schematic conceptual diagram showing a display example of the overlapping space Rx. The shape of the overlapping space Rx is determined by how the visual field ranges (measurable regions) of the sensors 10A and 10B overlap, and in many cases it has a polyhedral shape, which is schematically shown as a sphere in FIG.

図12に示すように、CPU31は、例えば画面34Aにおいて、センサ10Aを基準とする空間座標系に、定義された基準面40と併せて、重複空間Rxを3次元表示させる。なお、画面34Bにおいて、センサ10Bを基準とする空間座標系に、定義された基準面40と併せて、重複空間Rxを3次元表示させてもよい。これら双方を2画面に並べて表示してもよい。 As shown in FIG. 12, the CPU 31 three-dimensionally displays the overlapping space Rx together with the defined reference plane 40 in the spatial coordinate system with the sensor 10A as a reference, for example, on the screen 34A. In the screen 34B, the overlapping space Rx may be three-dimensionally displayed together with the defined reference plane 40 in the spatial coordinate system based on the sensor 10B. Both of these may be displayed side by side on two screens.

重複空間Rxが表示されると、ステップS304で、ユーザは、これにて防護エリアの頂点の指定へ移行することを示すOK指示か、またはやり直すことを示すやり直しの指示を入力する。例えば、ユーザは、重複空間Rxに所望する防護エリアが十分に包含されると判断すれば、OK指示を入力する。一方、ステップS404では、CPU31は、ユーザからのOK指示またはやり直しの指示を待つ。やり直しの指示が入力された場合は、ステップS304からステップS301に戻ると共に、ステップS404からステップS401に戻る。従って、この場合、ユーザは、ステップS301でマーカの設置のやり直しができ、さらにステップS302でセンサ10A、10Bの設置のやり直しができる。CPU31では、測距指示を待って測距が再度実行される。 When the overlapped space Rx is displayed, in step S304, the user inputs an OK instruction indicating that this will move to the designation of the apex of the protection area, or a redo instruction indicating that the process should be redone. For example, if the user determines that the desired protection area is sufficiently included in the overlapping space Rx, the user inputs an OK instruction. On the other hand, in step S404, CPU 31 waits for an OK instruction or a redo instruction from the user. If an instruction to redo is input, the process returns from step S304 to step S301, and from step S404 to step S401. Therefore, in this case, the user can redo the placement of the markers in step S301 and redo the placement of the sensors 10A and 10B in step S302. The CPU 31 waits for a distance measurement instruction and executes distance measurement again.

OK指示が入力された場合は、ステップS304からステップS305に進むと共に、ステップS404からステップS405に進む。ステップS305では、重複空間Rxが表示された空間座標系において、ユーザは、所望する防護エリアの頂点を示す位置情報(例えば、8点の位置)を指定する。通常、当該頂点は重複空間Rxの内側で指定される。なお、この際の入力方法は、立体形状を指定できる方法であればよく、例えば、個々の頂点の画面上の座標および距離情報を示す数値などを入力してもよい。 When the OK instruction is input, the process proceeds from step S304 to step S305, and from step S404 to step S405. In step S305, the user designates position information (e.g., positions of eight points) indicating the vertices of the desired protection area in the spatial coordinate system in which the overlapping space Rx is displayed. Usually the vertex is specified inside the overlapping space Rx. The input method at this time may be any method as long as it can specify a three-dimensional shape. For example, numerical values indicating the coordinates of individual vertices on the screen and distance information may be input.

防護エリアの頂点が指定されると、ステップS405では、CPU31は、指定点に従って防護エリア41を設定し、表示させる。この際の防護エリア41の表示態様は、図8に示したものと同様である。これにより、ユーザは、現在のセンサ10A、10Bの設置状態における防護エリア41の位置を視認することができる。 When the vertex of the protected area is designated, in step S405, the CPU 31 sets and displays the protected area 41 according to the designated point. The display mode of the protection area 41 at this time is the same as that shown in FIG. Thereby, the user can visually recognize the position of the protection area 41 in the current installation state of the sensors 10A and 10B.

ここで、CPU31による防護エリア41の各頂点の3次元座標の特定については、ステップS203で説明したのと同様である。ステップS306、S406では、図5のステップS105、S205と同様の処理が実行される。例えば、やり直しの指示が入力された場合は、ステップS306からステップS301に戻ると共に、ステップS406からステップS401に戻る。従って、この場合、ユーザは、ステップS301でマーカの設置のやり直しができ、さらにステップS302でセンサ10A、10Bの設置のやり直しができる。物体検出システム100においては、測距指示を待って測距が再度実行される。 Here, the specification of the three-dimensional coordinates of each vertex of the protection area 41 by the CPU 31 is the same as described in step S203. In steps S306 and S406, processing similar to steps S105 and S205 in FIG. 5 is executed. For example, if an instruction to redo is input, the process returns from step S306 to step S301 and from step S406 to step S401. Therefore, in this case, the user can redo the placement of the markers in step S301 and redo the placement of the sensors 10A and 10B in step S302. Object detection system 100 waits for a distance measurement instruction and executes distance measurement again.

図13は、やり直し後の輝度画像および視野範囲の表示例を示す図であり、図11に対応している。一例として、センサ10Bだけ設置位置を変更した場合を例にとる。図11に対応する設置状態から、センサ10Bの設置位置が変化したため、図13では、図11に対し、画面34Bにおける表示内容が変化している。これに応じて、画面34Aに表示されるセンサ10Bの視野範囲43も変化している。 FIG. 13 is a diagram showing a display example of the brightness image and the visual field range after redoing, and corresponds to FIG. As an example, a case where only the sensor 10B is installed is changed. Since the installation position of the sensor 10B has changed from the installation state corresponding to FIG. 11, the contents displayed on the screen 34B in FIG. 13 are different from those in FIG. Accordingly, the visual field range 43 of the sensor 10B displayed on the screen 34A also changes.

OK指示が入力された場合は、図10に示す処理は終了する。この場合、防護エリア41の設定は確定し、CPU31は、その後の物体検出等の処理や安全制御に移行することができる。 If the OK instruction is input, the processing shown in FIG. 10 ends. In this case, the setting of the protection area 41 is finalized, and the CPU 31 can proceed to subsequent processes such as object detection and safety control.

このように第2の手法によれば、ユーザがマーカを設置して測距させた後、重複空間Rxが表示された空間座標系において8つの頂点を指定することで防護エリア41が設定さ
れるので、防護エリア41の設定作業を補助することができる。また、重複空間Rxが表示された段階でも、マーカやセンサの設置をやり直すことができるので、一層細かな調整を行うことができる。
Thus, according to the second method, after the user sets the marker and measures the distance, the protection area 41 is set by specifying eight vertices in the spatial coordinate system in which the overlapping space Rx is displayed. Therefore, the setting work of the protection area 41 can be assisted. In addition, even when the overlapping space Rx is displayed, the placement of markers and sensors can be redone, so that finer adjustments can be made.

本実施の形態によれば、CPU31は、互いの測定可能領域RA、RBの少なくとも一部が重なるように配置されたセンサ10A、10Bによる距離情報の出力タイミングを互いにずらすように制御する。これにより、物体検出の応答速度を速めることができる。 According to the present embodiment, CPU 31 controls to shift the output timings of distance information from sensors 10A and 10B arranged so that at least a part of mutual measurable areas RA and RB overlap each other. Thereby, the response speed of object detection can be increased.

特に、センサ10A、10Bの各々が順次、等時間間隔(T2=T1/2)で距離情報を出力するように制御されるので、応答速度を効率的に速めることができる。しかも、測定可能領域が互いに重複する重複空間Rxに防護エリア41が包含されるように、センサ10A、10Bの各々を配置することで、防護エリア41での高い応答速度を確保することができる。 In particular, since each of the sensors 10A and 10B is controlled to sequentially output distance information at equal time intervals (T2=T1/2), the response speed can be efficiently increased. Moreover, by arranging each of the sensors 10A and 10B so that the protection area 41 is included in the overlapping space Rx in which the measurable regions overlap each other, a high response speed in the protection area 41 can be ensured.

また、第1の手法(図5)において、CPU31は、所望する防護エリアの指標となるマーカを配置した状態で測距した場合の輝度画像を画面に表示させ(図6)、画面上におけるユーザからの位置の指定と距離情報とに基づいて、防護エリア41を設定する(図8)。また、第2の手法(図10)において、CPU31は、平面を規定する指標となるマーカを配置した状態で測距した場合の距離情報に基づいて、各センサを基準とする基準面40を定義する。そしてCPU31は、空間座標系に、定義された基準面40と併せて、両センサの互いに重複する測定可能領域を重複空間Rxとして3次元表示させる(図12)。そして、画面上におけるユーザからの位置の指定と距離情報とに基づいて、防護エリア41を設定する(図8)。よって、防護エリアの設定作業を補助することができる。 Further, in the first method (FIG. 5), the CPU 31 displays on the screen a brightness image obtained when the distance is measured with the marker serving as the index of the desired protection area placed on the screen (FIG. 6). A protection area 41 is set based on the designation of the position from and the distance information (FIG. 8). Further, in the second method (FIG. 10), the CPU 31 defines a reference plane 40 based on each sensor based on the distance information when the distance is measured with the markers serving as the indices defining the plane being arranged. do. Then, the CPU 31 three-dimensionally displays the mutually overlapping measurable regions of both sensors as an overlapping space Rx together with the defined reference plane 40 in the spatial coordinate system (FIG. 12). Then, based on the position specified by the user on the screen and the distance information, the protection area 41 is set (FIG. 8). Therefore, it is possible to assist the work of setting the protection area.

<変形例>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<Modification>
The above-described embodiment is merely an example of the configuration of the present invention. The present invention is not limited to the specific forms described above, and various modifications are possible within the technical scope of the present invention.

なお、距離情報の出力タイミングを互いにずらすことで物体検出の応答速度を速めるという効果を得る観点に限れば、用いる3次元距離センサは、少なくとも、3次元の距離情報を周期的に出力するセンサであれば、他の種類のセンサを採用してもよい。TOFセンサを採用する場合、直接型(ダイレクト型)と間接型(インダイレクト型)のいずれでもよい。 From the standpoint of obtaining the effect of speeding up the response speed of object detection by shifting the output timing of distance information, the three-dimensional distance sensor used is at least a sensor that periodically outputs three-dimensional distance information. Other types of sensors, if any, may be employed. When a TOF sensor is employed, it may be either of a direct type (direct type) or an indirect type (indirect type).

なお、図4で説明したように、センサ10A、10Bの各々が順次、等時間間隔(周期T2)で測定結果を出力するように制御された。出力タイミングが等時間間隔でなくても、ずれていれば、単一のセンサだけで検出を行うことに比べれば、物体検出の応答速度を速める効果は得られる。また、センサ10A、10Bのフレーム期間T1は共通としたが、必ずしも共通でなくてもよい。 As described with reference to FIG. 4, each of the sensors 10A and 10B was controlled to sequentially output the measurement results at equal time intervals (cycle T2). Even if the output timings are not at equal time intervals, if they are offset, the effect of speeding up the response speed of object detection can be obtained as compared to detecting with only a single sensor. Also, although the frame period T1 of the sensors 10A and 10B is common, it does not necessarily have to be common.

また、用いる3次元距離センサが3つ以上であっても、出力タイミングをずらす制御を適用可能である。各センサの出力タイミングが等時間間隔となるように制御すれば、応答速度を効率的に速めることが可能である。 Also, even when three or more three-dimensional distance sensors are used, it is possible to apply control to shift the output timing. The response speed can be efficiently increased by controlling the output timing of each sensor to be at equal time intervals.

なお、防護エリアの形状は直方体等の多面体に限定されない。第1の手法において、防護エリアの底面の頂点に配置するために用いるマーカの数は4つでなくてもよく、3つ以上であればよい。 Note that the shape of the protection area is not limited to a polyhedron such as a rectangular parallelepiped. In the first method, the number of markers used for arranging the vertices of the bottom surface of the protected area does not have to be four, and may be three or more.

なお、第2の手法において、平面を規定する指標としてマーカを用いたが、マーカの数
は、4以上であってもよい。あるいは、既知の形状のシートでもよい。また、第2の手法において、制御部30によるセンサ10A、10Bの自動駆動が可能な構成としてもよい。このような構成とした場合、例えば、重複空間Rxが表示された空間座標系において、ユーザが8点の位置の指定により防護エリア41が設定された後、防護エリア41が空間座標系の中央に位置するように、制御部30がセンサ10A、10Bを駆動してもよい。
In addition, in the second method, markers are used as indices for defining a plane, but the number of markers may be four or more. Alternatively, it may be a sheet of known shape. Further, in the second method, the configuration may be such that the control unit 30 can automatically drive the sensors 10A and 10B. In such a configuration, for example, after the protected area 41 is set by the user specifying eight positions in the spatial coordinate system in which the overlapping space Rx is displayed, the protected area 41 is positioned at the center of the spatial coordinate system. The controller 30 may drive the sensors 10A, 10B so as to position them.

なお、距離情報の出力タイミングを互いにずらすことで物体検出の応答速度を速めるという効果を得る観点に限れば、防護エリアを設定することは必須でない。 It should be noted that it is not essential to set a protection area if the effect of speeding up the object detection response speed is obtained by shifting the output timings of the distance information.

なお、防護エリアでの高い応答速度を確保するという効果を得る観点に限れば、防護エリアを設定する手法は問わず、上記第1、第2の手法を用いることは必須でない。 From the standpoint of obtaining the effect of ensuring a high response speed in the protected area, it is not essential to use the above first and second techniques regardless of the technique for setting the protected area.

<付記>
〔1〕 互いの測定可能領域(RA、RB)の少なくとも一部が重なるように配置され、前記測定可能領域の距離情報を周期的に出力する、複数の撮像手段(10A、10B)と、
複数の前記撮像手段により出力された前記距離情報に基づいて物体を検出する物体検出手段(30)と、
複数の前記撮像手段による前記距離情報の出力タイミングを互いにずらすように制御する制御手段(30)と、
を有することを特徴とする物体検出システム(100)。
<Appendix>
[1] a plurality of imaging means (10A, 10B) arranged so that at least parts of the measurable regions (RA, RB) overlap with each other, and periodically outputting distance information of the measurable regions;
an object detection means (30) for detecting an object based on the distance information output by the plurality of imaging means;
a control means (30) for controlling output timings of the distance information by the plurality of imaging means so as to be shifted from each other;
An object detection system (100) comprising:

〔2〕 作業機械と、
共通のエリア(Rx)を撮像できるように設置され、それぞれが所定の時間間隔で周期的に撮像する複数の撮像手段(10A、10B)と、
前記複数の撮像手段(10A、10B)から出力される画像に基づいて前記エリア(Rx)にある物体を検出する物体検出手段(30)と
を有する安全制御システムにおける動作を制御する制御装置(50)であって、
互いの撮像タイミングを前記時間間隔よりも短い時間ずらすように前記複数の撮像手段(10A、10B)を制御する撮像制御手段(30)と、
前記物体検出手段(30)の検出結果に基づいて前記作業機械の動作を制限する安全制御手段(30)と
を備えることを特徴とする制御装置(50)。
[2] a working machine;
a plurality of imaging means (10A, 10B) installed so as to be able to image a common area (Rx), each of which periodically images at a predetermined time interval;
an object detection means (30) for detecting an object in the area (Rx) based on the images output from the plurality of imaging means (10A, 10B);
A controller (50) for controlling operation in a safety control system comprising:
an imaging control means (30) for controlling the plurality of imaging means (10A, 10B) so as to shift imaging timings of each other by a time shorter than the time interval;
A control device (50) comprising: safety control means (30) for limiting the operation of the work machine based on the detection result of the object detection means (30).

10A、10B:3次元距離センサ
30:制御部
31:CPU
41:防護エリア
100:物体検出システム
RA、RB:測定可能領域
Rx:重複空間
T1:フレーム期間
T2:周期
10A, 10B: three-dimensional distance sensor 30: control unit 31: CPU
41: Protection area 100: Object detection system RA, RB: Measurable area Rx: Overlapping space T1: Frame period T2: Period

Claims (11)

互いの測定可能領域の少なくとも一部が重なるように配置され、前記測定可能領域内の距離情報を周期的に出力する、複数の撮像手段と、
複数の前記撮像手段により出力された前記距離情報に基づいて物体を検出する物体検出手段と、
複数の前記撮像手段による前記距離情報の出力タイミングを互いにずらすように制御する制御手段と、
を有することを特徴とする物体検出システム。
a plurality of imaging means arranged so that at least a part of each other's measurable regions overlaps, and periodically outputting distance information within the measurable regions;
an object detection means for detecting an object based on the distance information output by the plurality of imaging means;
a control means for controlling output timings of the distance information by the plurality of imaging means so as to be shifted from each other;
An object detection system comprising:
前記撮像手段の各々による前記距離情報の出力周期は共通であり、
前記制御手段は、前記複数の撮像手段から、等時間間隔で前記距離情報が出力されるように制御することを特徴とする請求項1に記載の物体検出システム。
an output cycle of the distance information by each of the imaging means is common,
2. The object detection system according to claim 1, wherein said control means controls said plurality of imaging means to output said distance information at equal time intervals.
前記撮像手段の数をn(nは2以上の整数)、前記出力周期をTとしたときに、
前記制御手段は、n個の前記撮像手段から、T/nの時間間隔で前記距離情報が出力されるように制御することを特徴とする請求項2に記載の物体検出システム。
When the number of imaging means is n (n is an integer equal to or greater than 2) and the output period is T,
3. The object detection system according to claim 2, wherein said control means controls such that said distance information is output from said n imaging means at time intervals of T/n.
物体検出のための仮想的な防護エリアを設定する設定手段を有し、
複数の前記撮像手段の測定可能領域が互いに重複する重複空間に、前記設定手段により設定された防護エリアが包含されるように、前記撮像手段の各々が配置されていることを特徴とする請求項1~3のいずれか1項に記載の物体検出システム。
Having setting means for setting a virtual protection area for object detection,
3. Each of said imaging means is arranged so that the protection area set by said setting means is included in an overlapping space in which the measurable regions of said plurality of said imaging means overlap each other. 4. The object detection system according to any one of 1 to 3.
物体検出のための仮想的な防護エリアを設定する設定手段を有し、
前記撮像手段の各々は前記距離情報と共に輝度情報も出力し、
前記制御手段は、所望する防護エリアの指標となるマーカを配置した状態で前記撮像手段の各々により出力された前記輝度情報に基づいて、前記撮像手段の各々に対応する輝度画像を画面に表示させ、
前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報とに基づいて、前記仮想的な防護エリアを設定することを特徴とする請求項1~3のいずれか1項に記載の物体検出システム。
Having setting means for setting a virtual protection area for object detection,
each of the imaging means outputs luminance information together with the distance information;
The control means causes a brightness image corresponding to each of the imaging means to be displayed on a screen based on the brightness information output by each of the imaging means with a marker serving as an index of a desired protection area arranged. ,
4. The setting device according to claim 1, wherein said setting means sets said virtual protection area based on a user's designation of a position on said screen and said output distance information. 2. The object detection system according to item 1.
3つ以上の前記マーカが基準面に配置され、
前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報と、前記マーカの各々に対応して前記基準面から鉛直方向に離れた位置を示す既知の高さ情報とに基づいて、前記仮想的な防護エリアを設定することを特徴とする請求項5に記載の物体検出システム。
three or more of the markers are arranged on a reference plane;
The setting means includes a user's designation of a position on the screen, the output distance information, and known height information indicating a position away from the reference plane in the vertical direction corresponding to each of the markers. 6. The object detection system according to claim 5, wherein the virtual protection area is set based on and.
前記マーカは、基準面に配置された3つ以上の第1マーカと、前記第1マーカの各々に対応して前記基準面から鉛直方向に離れた位置に配置された第2マーカと、を含むことを特徴とする請求項5に記載の物体検出システム。 The markers include three or more first markers arranged on a reference plane, and second markers arranged at positions separated from the reference plane in the vertical direction corresponding to each of the first markers. 6. The object detection system according to claim 5, characterized in that: 前記制御手段は、平面を規定する指標を基準面に配置した状態で前記撮像手段の各々により出力された前記距離情報に基づいて、前記撮像手段の各々を基準とする基準面を定義し、複数の前記撮像手段のうちいずれかの撮像手段を基準とする空間座標系に、定義された前記基準面と併せて、複数の前記撮像手段の互いに重複する測定可能領域を前記重複空間として3次元表示させ、
前記設定手段は、前記空間座標系でのユーザからの指示に基づいて前記仮想的な防護エリアを設定することを特徴とする請求項4に記載の物体検出システム。
The control means defines a reference plane based on each of the imaging means based on the distance information output by each of the imaging means in a state in which an index defining a plane is placed on the reference plane, and a plurality of three-dimensionally displaying the overlapping measurable regions of the plurality of imaging means as the overlapping space in a spatial coordinate system based on any one of the imaging means of let
5. The object detection system according to claim 4, wherein said setting means sets said virtual protection area based on an instruction from a user in said spatial coordinate system.
前記平面を規定する指標は、少なくとも3つのマーカであることを特徴とする請求項8に記載の物体検出システム。 9. The object detection system of claim 8, wherein the indicia defining the plane are at least three markers. 前記撮像手段は、TOFセンサであることを特徴とする請求項1~9のいずれか1項に記載の物体検出システム。 10. The object detection system according to any one of claims 1 to 9, wherein said imaging means is a TOF sensor. 作業機械と、
共通のエリアを撮像できるように設置され、それぞれが所定の時間間隔で周期的に撮像する複数の撮像手段と、
前記複数の撮像手段から出力される画像に基づいて前記エリアにある物体を検出する物体検出手段と
を有する安全制御システムにおける動作を制御する制御装置であって、
互いの撮像タイミングを前記時間間隔よりも短い時間ずらすように前記複数の撮像手段を制御する撮像制御手段と、
前記物体検出手段の検出結果に基づいて前記作業機械の動作を制限する安全制御手段と
を備えることを特徴とする制御装置。
a working machine;
a plurality of imaging means installed so as to be able to image a common area, each of which periodically images at a predetermined time interval;
and object detection means for detecting an object in the area based on the images output from the plurality of imaging means, and
imaging control means for controlling the plurality of imaging means so as to shift imaging timings of each other by a time shorter than the time interval;
and safety control means for restricting the operation of the work machine based on the detection result of the object detection means.
JP2021037960A 2021-03-10 2021-03-10 Object detection system and control device Pending JP2022138211A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021037960A JP2022138211A (en) 2021-03-10 2021-03-10 Object detection system and control device
PCT/JP2021/047126 WO2022190544A1 (en) 2021-03-10 2021-12-20 Object detection system and control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021037960A JP2022138211A (en) 2021-03-10 2021-03-10 Object detection system and control device

Publications (1)

Publication Number Publication Date
JP2022138211A true JP2022138211A (en) 2022-09-26

Family

ID=83226212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021037960A Pending JP2022138211A (en) 2021-03-10 2021-03-10 Object detection system and control device

Country Status (2)

Country Link
JP (1) JP2022138211A (en)
WO (1) WO2022190544A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10419703B2 (en) * 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
JP6789767B2 (en) * 2016-11-11 2020-11-25 スタンレー電気株式会社 Monitoring system
EP4088891A1 (en) * 2017-02-07 2022-11-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control
EP3611422B1 (en) * 2018-08-15 2020-10-14 Sick Ag Sensor assembly and method for securing a supervised area
JP7205179B2 (en) * 2018-11-19 2023-01-17 株式会社Ihi Monitoring system
EP3671277A1 (en) * 2018-12-21 2020-06-24 Infineon Technologies AG 3d imaging apparatus and method

Also Published As

Publication number Publication date
WO2022190544A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
CA3033972C (en) Robotic system and method for operating on a workpiece
EP2405403A1 (en) Three Dimensional User Interface
JP5897624B2 (en) Robot simulation device for simulating workpiece removal process
US10888998B2 (en) Method and device for verifying one or more safety volumes for a movable mechanical unit
US20140288706A1 (en) Robot system and method for producing to-be-processed material
US20150091446A1 (en) Lighting control console and lighting control system
US11148299B2 (en) Teaching apparatus and teaching method for robots
CN103921265A (en) Robot Teaching System And Robot Teaching Method
JP2012218120A (en) Manipulator operation previous notice device, robot system and method for previously noticing manipulator operation
CN106247943A (en) Article 3-D positioning method, device and system
WO2019239848A1 (en) Robot control system
JP2013025478A (en) Work detection system
US11937024B2 (en) Projection system, projection device and projection method
US20180374265A1 (en) Mixed reality simulation device and computer readable medium
WO2022190544A1 (en) Object detection system and control device
CN103455141A (en) Interactive projection system and correction method of depth sensor and projector of interactive projection system
US20210256865A1 (en) Display system, server, display method, and device
KR20210060762A (en) 3-dimensional scanning system for inspection by pixels of display and the method thereof
WO2022190548A1 (en) Object detection system and control device
JP2008065522A (en) Information display system and pointing control method
US11803109B2 (en) Projection method, projection device, and projection system
JP2003280813A (en) Pointing device, pointer controller, pointer control method and recording medium with the method recorded thereon
JP7276107B2 (en) detection system
Vincze et al. What-You-See-Is-What-You-Get Indoor Localization for Physical Human-Robot Interaction Experiments
TWI692727B (en) Object positioning guidance system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240116