JP2022138211A - Object detection system and control device - Google Patents
Object detection system and control device Download PDFInfo
- Publication number
- JP2022138211A JP2022138211A JP2021037960A JP2021037960A JP2022138211A JP 2022138211 A JP2022138211 A JP 2022138211A JP 2021037960 A JP2021037960 A JP 2021037960A JP 2021037960 A JP2021037960 A JP 2021037960A JP 2022138211 A JP2022138211 A JP 2022138211A
- Authority
- JP
- Japan
- Prior art keywords
- object detection
- imaging means
- markers
- protection area
- distance information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 61
- 238000003384 imaging method Methods 0.000 claims abstract description 72
- 239000003550 marker Substances 0.000 claims description 13
- 238000000034 method Methods 0.000 abstract description 55
- 230000004044 response Effects 0.000 abstract description 22
- 238000005259 measurement Methods 0.000 description 38
- 238000012545 processing Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000009434 installation Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000011900 installation process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4861—Circuits for detection, sampling, integration or read-out
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C15/00—Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path
- G08C15/06—Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path successively, i.e. using time division
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Manipulator (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
Abstract
Description
本発明は、物体検出システム、制御装置に関する。 The present invention relates to an object detection system and control device.
多くの生産現場において、作業者と協働しながらロボットが作業することが行われている。このような生産現場では、作業者の安全を確保するために様々な工夫が施されている。例えば、安全規格に基づき、ロボット等の危険源の近くに仮想の防護エリアを設定し、防護エリア内に人体等の物体が入ると危険源を低速駆動または停止させることが行われる。物体の検出には、例えばエリアセンサが用いられる。 In many production sites, robots work while collaborating with workers. In such production sites, various measures are taken to ensure the safety of workers. For example, based on safety standards, a virtual protection area is set near a danger source such as a robot, and when an object such as a human body enters the protection area, the danger source is driven at low speed or stopped. An area sensor, for example, is used for object detection.
防護エリアは、物体検出から危険源の減速または停止の完了までの所要時間を考慮して設定される。すなわち、防護エリアの大きさは、危険源からの安全距離(防護エリアへの侵入物が危険源に到達するまでに危険源が減速・停止を完了することを保証できる距離)で決まる。また、安全距離は、センサの応答速度や、危険源の動作速度や制動性能などを考慮して定められる。生産性の観点からは、防護エリアをなるべく狭く設定したい。安全性向上の観点からは、防護エリアに実際に物体が侵入してから物体が検出されるまでの時間は短い方が有利である。従って、防護エリアに侵入する物体を速やかに検出することが求められる。 The protected area is set by considering the time required from object detection to completion of deceleration or stopping of the hazard. That is, the size of the protection area is determined by the safe distance from the hazard (the distance that can guarantee that the hazard completes deceleration and stoppage before an object entering the protection area reaches the hazard). Also, the safe distance is determined in consideration of the response speed of the sensor, the operating speed of the hazard, braking performance, and the like. From the viewpoint of productivity, it is desirable to set the protection area as narrow as possible. From the viewpoint of improving safety, it is advantageous to shorten the time from when an object actually enters the protected area to when the object is detected. Therefore, it is required to quickly detect an object entering the protected area.
しかしながら、エリアセンサの速度(距離情報の出力の周期)には性能的な限界がある。また、コスト上昇回避の観点から、高性能なセンサを採用できない場合もある。そのため、エリアセンサによる距離情報の出力周期が律速となり、防護エリアの設定や危険源の動作速度の設定が制約を受ける場合がある。従って、物体検出の応答速度を速めることに関して改善の余地があった。 However, the area sensor speed (distance information output cycle) has a performance limit. Also, from the viewpoint of avoiding cost increase, there are cases where a high-performance sensor cannot be adopted. Therefore, the output period of the distance information from the area sensor becomes rate-determining, and the setting of the protection area and the setting of the operation speed of the hazard may be restricted. Therefore, there is room for improvement in increasing the response speed of object detection.
本発明者らは、3次元空間に存在する物体を高精度に検出するために、エリアセンサとして、3次元距離センサの採用を検討している。このような3次元距離センサの場合、3次元距離情報の取得のためにある一定の処理時間を要することから、上記の課題がより顕著となる。 The inventors are considering adopting a three-dimensional distance sensor as an area sensor in order to detect an object existing in a three-dimensional space with high accuracy. In the case of such a three-dimensional distance sensor, it takes a certain amount of processing time to acquire the three-dimensional distance information, so the above problem becomes more pronounced.
ところで、特許文献1は、磁気センサやトルクセンサを2つ組み合わせて用いることで、検出の時間的分解能を高める技術を開示している。しかし、特許文献1の装置は、エリアセンサに関するものではない。 By the way, Patent Literature 1 discloses a technique for improving temporal resolution of detection by using a combination of two magnetic sensors and torque sensors. However, the device of Patent Literature 1 does not relate to area sensors.
本発明は、物体検出の応答速度を速める技術を提供することを目的とする。 An object of the present invention is to provide a technique for increasing the response speed of object detection.
上記目的を達成するために本発明は、以下の構成を採用する。 In order to achieve the above objects, the present invention employs the following configurations.
本発明の第一側面は、互いの測定可能領域の少なくとも一部が重なるように配置され、前記測定可能領域内の距離情報を周期的に出力する、複数の撮像手段と、複数の前記撮像
手段により出力された前記距離情報に基づいて物体を検出する物体検出手段と、複数の前記撮像手段による前記距離情報の出力タイミングを互いにずらすように制御する制御手段と、を有することを特徴とする物体検出システムを提供する。
A first aspect of the present invention is a plurality of imaging means arranged so that at least a part of each other's measurable areas overlaps, and periodically outputting distance information within the measurable areas; and a plurality of the imaging means. and control means for controlling output timings of the distance information from the plurality of imaging means so as to be shifted from each other. Provide a detection system.
「撮像手段」は、一例としてTOF(Time of Flight)センサである。「測定可能領域」は、例えば、各撮像手段の視野(画角の範囲)における3次元空間である。ただし、その奥行きについては、正確な距離を測定可能な距離範囲に限定されてもよい。 The “imaging means” is, for example, a TOF (Time of Flight) sensor. The “measurable area” is, for example, a three-dimensional space in the field of view (angle of view range) of each imaging means. However, the depth may be limited to a distance range in which an accurate distance can be measured.
この構成によれば、複数の撮像手段による距離情報の出力タイミングを互いにずらすように制御されるので、各撮像手段の双方からの距離情報がずれたタイミングで得られるので、見かけ上の応答速度が高まる。よって、物体検出の応答速度を速めることができる。 According to this configuration, since the output timings of the distance information from the plurality of imaging means are controlled to be shifted from each other, the distance information from both imaging means can be obtained at different timings, so the apparent response speed is increased. increase. Therefore, the response speed of object detection can be increased.
また、前記撮像手段の各々による距離情報の出力周期は共通であり、前記制御手段は、前記複数の撮像手段から、等時間間隔で前記距離情報が出力されるように制御してもよい。具体的には、前記撮像手段の数をn(nは2以上の整数)、前記出力周期をTとしたときに、前記制御手段は、n個の前記撮像手段から、T/nの時間間隔で前記距離情報が出力されるように制御してもよい。例えば、2つの撮像手段を用いる場合、両者からの距離情報の出力タイミングが互い違いとなるように制御される。これにより、応答速度を効率的に速めることができる。 Further, the output cycle of the distance information by each of the imaging means may be common, and the control means may control the distance information to be output from the plurality of imaging means at equal time intervals. Specifically, when the number of the imaging means is n (n is an integer equal to or greater than 2) and the output period is T, the control means controls the time interval of T/n from the n imaging means. may be controlled so that the distance information is output by . For example, when two imaging means are used, the output timings of the distance information from both are controlled to be staggered. Thereby, the response speed can be efficiently increased.
また、物体検出のための仮想的な防護エリアを設定する設定手段を有し、複数の前記撮像手段の測定可能領域が互いに重複する重複空間に、前記設定手段により設定された防護エリアが包含されるように、前記撮像手段の各々が配置されてもよい。これにより、防護エリアでの高い応答速度を確保することができる。 Further, it has setting means for setting a virtual protection area for object detection, and the protection area set by the setting means is included in an overlapping space in which the measurable areas of the plurality of imaging means overlap each other. Each of the imaging means may be arranged as follows. As a result, a high response speed can be secured in the protected area.
また、物体検出のための仮想的な防護エリアを設定する設定手段を有し、前記撮像手段の各々は前記距離情報と共に輝度情報も出力し、前記制御手段は、所望する防護エリアの指標となるマーカを配置した状態で前記撮像手段の各々により出力された前記輝度情報に基づいて、前記撮像手段の各々に対応する輝度画像を画面に表示させ、前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報とに基づいて、前記仮想的な防護エリアを設定するようにしてもよい。これにより、防護エリアの設定作業を補助することができる。 Further, setting means for setting a virtual protection area for object detection is provided, each of the imaging means outputs luminance information together with the distance information, and the control means serves as an index of a desired protection area. Based on the luminance information output by each of the imaging means with the markers arranged, the luminance image corresponding to each of the imaging means is displayed on the screen, and the setting means receives a user's input on the screen. The virtual protection area may be set based on the specified position and the output distance information. As a result, it is possible to assist the work of setting the protection area.
また、3つ以上の前記マーカが基準面に配置され、前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報と、前記マーカの各々に対応して前記基準面から鉛直方向に離れた位置を示す既知の高さ情報とに基づいて、前記仮想的な防護エリアを設定するようにしてもよい。あるいは、前記マーカは、基準面に配置された3つ以上の第1マーカと、前記第1マーカの各々に対応して前記基準面から鉛直方向に離れた位置に配置された第2マーカと、を含むようにしてもよい。 Also, three or more of the markers are arranged on a reference plane, and the setting means designates a position on the screen from the user, the output distance information, and the reference marker corresponding to each of the markers. The virtual protection area may be set based on known height information indicating a position away from the surface in the vertical direction. Alternatively, the markers include three or more first markers arranged on a reference plane, and second markers arranged at positions separated from the reference plane in the vertical direction corresponding to each of the first markers; may be included.
また、前記制御手段は、平面を規定する指標を基準面に配置した状態で前記撮像手段の各々により出力された前記距離情報に基づいて、前記撮像手段の各々を基準とする基準面を定義し、複数の前記撮像手段のうちいずれかの撮像手段を基準とする空間座標系に、定義された前記基準面と併せて、複数の前記撮像手段の互いに重複する測定可能領域を前記重複空間として3次元表示させ、前記設定手段は、前記空間座標系でのユーザからの指示に基づいて前記仮想的な防護エリアを設定するようにしてもよい。例えば、重複空間が表示された空間座標系での複数点の指定により防護エリアが設定される。これにより、防護エリアの設定作業を補助することができる。 Further, the control means defines a reference plane with each of the imaging means as a reference, based on the distance information output by each of the imaging means in a state in which an index defining a plane is placed on the reference plane. 3, in a spatial coordinate system based on any one of the plurality of imaging means, the overlapped measurable regions of the plurality of imaging means are defined as the overlapping space together with the defined reference plane; A dimension display may be performed, and the setting means may set the virtual protection area based on an instruction from the user in the spatial coordinate system. For example, a protected area is set by specifying a plurality of points in a spatial coordinate system in which overlapping spaces are displayed. As a result, it is possible to assist the work of setting the protection area.
また、前記平面を規定する指標は、少なくとも3つのマーカであってもよい。また、前
記撮像手段は、TOFセンサであってもよい。
Also, the indices defining the plane may be at least three markers. Also, the imaging means may be a TOF sensor.
本発明の第二側面は、作業機械と、共通のエリアを撮像できるように設置され、それぞれが所定の時間間隔で周期的に撮像する複数の撮像手段と、前記複数の撮像手段から出力される画像に基づいて前記エリアにある物体を検出する物体検出手段とを有する安全制御システムにおける動作を制御する制御装置であって、互いの撮像タイミングを前記時間間隔よりも短い時間ずらすように前記複数の撮像手段を制御する撮像制御手段と、前記物体検出手段の検出結果に基づいて前記作業機械の動作を制限する安全制御手段とを備えることを特徴とする制御装置を提供する。 A second aspect of the present invention is a work machine, a plurality of imaging means installed so as to be able to image a common area, each periodically imaging at a predetermined time interval, and output from the plurality of imaging means and an object detection means for detecting an object in the area based on an image, wherein the plurality of safety control systems are configured such that the imaging timings of the plurality of safety control systems are staggered by a time shorter than the time interval. A control device is provided, comprising imaging control means for controlling imaging means, and safety control means for restricting the operation of the working machine based on the detection result of the object detection means.
「作業機械」は例えばロボット、製造装置などである。「撮像手段」は、一例としてTOF(Time of Flight)センサである。「共通のエリア」は、例えば、複数撮像手段の視野(画角の範囲)が重なる3次元空間である。 A "working machine" is, for example, a robot, manufacturing equipment, or the like. The “imaging means” is, for example, a TOF (Time of Flight) sensor. The “common area” is, for example, a three-dimensional space in which the fields of view (ranges of angles of view) of a plurality of imaging means overlap.
この構成によれば、複数の撮像手段が撮像タイミングを互いにずらすように制御されるので、各撮像手段からの画像を撮像周期よりも短い時間間隔で得ることができ、見かけ上の撮像周期を高めることができる。よって、物体検出ならびに安全制御の応答速度を速めることが可能となる。 According to this configuration, the plurality of imaging means are controlled so that the imaging timings are shifted from each other, so images from each imaging means can be obtained at time intervals shorter than the imaging cycle, and the apparent imaging cycle is increased. be able to. Therefore, it is possible to increase the response speed of object detection and safety control.
本発明によれば、物体検出の応答速度を速めることができる。 According to the present invention, the response speed of object detection can be increased.
<適用例>
図1~図4を参照して、本発明に係る物体検出システムの適用例を説明する。図1は、本発明の一実施の形態に係る物体検出システム100の模式図である。図2は、1つの3次元距離センサの測定可能領域を示す模式図である。図3は、物体検出システム100のブロック図である。図4は、2つの3次元距離センサ10A、10B(以下、センサ10A、10Bと記す)の測定動作を示すタイミングチャートである。
<Application example>
An application example of the object detection system according to the present invention will be described with reference to FIGS. 1 to 4. FIG. FIG. 1 is a schematic diagram of an
センサ10A、10Bの構成は共通である。図2に示すように、センサ10Aの実質的
な測定可能領域RAの立体形状は、一例として概ね四角錐台となる。センサ10Aの視野のうち、正確な距離を測定可能な距離範囲は限定されるからである。センサ10Bの実質的な測定可能領域RBの立体形状は測定可能領域RAと同様である。図1に示すように、センサ10Aとセンサ10Bとは、互いの測定可能領域RA、RBの少なくとも一部が重なるように配置される。測定可能領域RA、RBが重複する3次元領域が重複空間Rxである。重複空間Rxに防護エリア41が包含されるように、センサ10A、10Bの各々が配置されている。
The configurations of the
ここで、防護エリア41は、物体検出のための仮想的な3次元領域であり、ロボットや製造装置等の作業機械(以下「危険源」とも呼ぶ)の近辺または周囲に設定される。防護エリア41は、安全規格に従って、危険源の動作範囲を考慮して定められる。例えば、防護エリア41内に人体等の物体が入ると危険源を低速駆動または停止させる等の安全制御が行われる。
Here, the protected
図3に示すように、センサ10A、10Bは各々、発光部11、受光部12および演算部13を備える。発光部11は光(例えば、赤外光)を出射し、受光部12は反射光を受光する。センサ10A、10Bには、一例として、光の飛行時間(Time of Flight:TOF
)から距離画像を取得するTOFセンサが採用される。例えば、投影光と反射光の位相差から時間差を推定する間接型TOFセンサが採用される。センサ10A、10Bは、3次元の距離情報および輝度情報を測定結果として周期的に出力する。センサ10A、10Bによる測定結果はセンサ制御ユニット50におけるセンサI/F14を介して制御部30に供給される。センサ10A、10Bは、センサI/F14を介して制御部30によって制御される。
As shown in FIG. 3, each of the
), a TOF sensor is employed to acquire the range image from . For example, an indirect TOF sensor that estimates the time difference from the phase difference between projected light and reflected light is employed. The
図4に示すように、センサ10A、10Bは各々、発光部11および受光部12による撮像処理と演算部13による演算処理(データ転送を含む)とを周期的に繰り返す。フレーム期間T1で、撮像処理と演算処理とが実行される。フレーム期間T1が1周期(出力周期)である。撮像処理においては、発光部11による発光のほか、露光、受光部12で受光された電荷の読み出し等が実行される。1回の撮像処理で、これらの動作が複数回実行されてもよい。演算処理においては、計測した光の量から間接的に時間を推定し、推定した時間から距離情報を生成する処理等が実行される。演算処理後は、測定結果(距離情報および輝度情報)が出力される。
As shown in FIG. 4, each of the
ここで、制御手段の一例としての制御部30は、センサ10Aとセンサ10Bとで、測定結果の出力タイミングを互いにずらすように制御する。一例として、制御部30は、センサ10A、10Bから等時間間隔で測定結果が出力されるように各センサ10A、10Bを制御する。例えばセンサが2つの場合、センサ10Aからの出力とセンサ10Bからの出力との間隔である周期T2はT1/2に設定される。すなわち、センサがn個(nは2以上の整数)の場合、n個のセンサからT1/nの時間間隔で測定結果が出力されるように制御すればよい。測定可能領域RA、RBのうち重複空間Rxでない領域においては、センサ10A、10Bのいずれかからしか測定結果が得られないので、測定結果の取得周期はフレーム期間T1となる。しかし、重複空間Rxでは、センサ10A、10Bの双方からの測定結果が得られるので、周期T2で測定結果が得られる。従って、応答速度が見かけ上、2倍になる。言い換えると、センサ10Aが演算処理を行っている期間を利用してセンサ10Bが撮像を行うことで、実質的にフレームレートが高まる。これにより、重複空間Rx内に包含されるように防護エリア41を設定することで、防護エリア41では応答速度を確実に高めること可能となる。
Here, the
ところで、所望する防護エリアが重複空間Rxに包含されるようにするには、センサ10A、10Bの位置および向きを適切に調整して設置する必要がある。しかし、計測に用
いる光(赤外光)は目に見えないため、ユーザは、重複空間Rxがどこに形成されているかを把握することが困難である。そこで、ユーザによるセンサ10A、10Bの設置を手助けするために、現在の設置状態における重複空間Rxないし防護エリア41をユーザが視認できるようにする。このことを概説する。
By the way, in order for the desired protection area to be included in the overlapping space Rx, it is necessary to appropriately adjust the positions and orientations of the
第1の手法(後述)において、ユーザは、所望する防護エリアの指標となるマーカM1~M4(図1)を床面等に配置した状態で、センサ10A、10Bに測定動作を実行させる。防護エリアが直方体である場合を例にとると、マーカM1~M4は、防護エリアの底面の頂点に配置される。さらにユーザは、マーカM1~M4の各々から、防護エリアの上面の頂点までの高さ情報を制御部30に与える。そして、センサ10A、10Bからの出力から得られたそれぞれの輝度画像上で、ユーザはマーカM1~M4が表示されている位置を指定(制御部30に教示)する。
In the first method (described later), the user causes the
すると、制御部30は、2つの距離画像における同じ位置の画素から各マーカまでの距離を決定し、各センサと防護エリアの8つの頂点との相対的な位置関係を把握する。これを元に、設定手段の一例としての制御部30は、図8に示すように、8つの頂点で規定される防護エリア41を設定すると共に、画面上に表示させる。ユーザは、表示された防護エリア41が適切でないと判断すれば、センサ10A、10Bの位置調整をやり直すことができる。
Then, the
また、他のやり方(第2の手法;後述)として、ユーザは、平面を規定する指標であるマーカM1~M3(図11)を床面等に配置した状態で、センサ10A、10Bに測定動作を実行させる。測定結果から、センサ10A、10Bの各々を基準とする基準面40が定義される。制御部30は、例えばセンサ10Aを基準とする空間座標系に、定義された基準面40と併せて、重複空間Rxを3次元表示させる(図12)。ユーザは、重複空間Rx内で、所望する防護エリアの頂点などを指定すると、それに応じた防護エリア41が設定され、画面上に表示される。ユーザは、表示された防護エリア41が適切でないと判断すれば、センサ10A、10Bの位置調整をやり直すことができる。
As another method (second method; described later), the user places markers M1 to M3 (FIG. 11), which are indices defining a plane, on the floor or the like, and performs measurement operations on the
物体検出手段の一例としての制御部30は、センサ10A、10Bにより出力された距離情報に基づいて物体を検出する。制御部30は、センサ10A、10Bのいずれかまたは双方で測定可能領域内に該当する距離を示す距離情報が得られた場合に、「測定可能領域RAまたは測定可能領域RB内に物体有り」と判定(検出)することができる。また、制御部30は、センサ10A、10Bのいずれかまたは双方で重複空間Rx内に該当する距離を示す距離情報が得られた場合に、「重複空間Rx内に物体有り」と判定することができる。特に、防護エリア41は重複空間Rx内にあるので、制御部30は、防護エリア41に物体が入ったか否かを高い応答速度で判定することができる。安全制御手段の一例としての制御部30は、物体検出結果に基づいて作業機械(危険源)の動作を制限する安全制御を実行する。防護エリア41については高い応答速度で物体の検出が可能であるため、作業機械の停止や減速といった安全制御も速やかに行うことができる。
The
以上の適用例は、本発明の理解を補助するための例示であり、本発明を限定解釈することを意図するものではない。 The above application examples are examples to aid understanding of the present invention, and are not intended to limit interpretation of the present invention.
<実施形態>
次に、物体検出システム100の構成および防護エリアの設定の手順等を詳細に説明する。まず、図3で、物体検出システム100の全体構成を説明する。
<Embodiment>
Next, the configuration of the
物体検出システム100は、センサ制御ユニット50およびセンサ10A、10Bを含む。センサ制御ユニット50は、制御部30、センサI/F14、表示部34、操作入力
部35、記憶部36、通信I/F37を備える。制御部30は、CPU31、ROM32、RAM33および不図示のタイマ等を備える。ROM32には、CPU31が実行する制御プログラムが格納されている。RAM33は、CPU31が制御プログラムを実行する際のワークエリアを提供する。
表示部34は、LCD等で構成され、各種情報を表示する。表示部34は、2つ以上の画面を有するか、または画面分割により2つ以上の画面を表示する機能を有してもよい。操作入力部35は、ユーザからの各種指示の入力を受け付け、入力情報をCPU31に送る。また、操作入力部35は、CPU31からの指示に基づきユーザに対して音声やランプ等による報知を行う機能を有してもよい。記憶部36は例えば不揮発メモリで構成される。記憶部36は外部メモリであってもよい。通信I/F37は、制御部30と外部装置との間で有線または無線による通信を行う。
The
CPU31は、センサI/F14を介してセンサ10A、10Bを駆動し、測定動作のタイミングを制御する。上述したように、CPU31は、センサ10A、10Bの各々が順次、等時間間隔(周期T2)で測定結果を出力するようにセンサ10A、10Bを制御する(図4参照)。少なくとも防護エリア41(図1参照)においては、周期T2というフレームレートで測定結果が得られるので、高速での物体検出が可能となる。
The
次に、指標を用いて、センサ10A、10Bの設置や防護エリアの設定の作業を補助する処理について説明する。この処理における手法には大別して第1、第2の手法がある。第1、第2の手法のいずれを採用してもよい。
Next, a description will be given of the process of assisting the installation of the
<第1の手法>
図5~図9で第1の手法について説明する。
<First method>
The first method will be described with reference to FIGS. 5 to 9. FIG.
図5は、第1の手法におけるセンサ設置処理および防護エリア設定処理を示すフローチャートである。このセンサ設置処理はユーザによって実行される。また、防護エリア設定処理は、ROM32に格納されたプログラムをCPU31がRAM33に展開して実行することにより実現される。防護エリア設定処理は、ユーザの指示により開始され、センサ設置処理と並行してCPU31により実行される。
FIG. 5 is a flow chart showing sensor installation processing and protection area setting processing in the first method. This sensor installation processing is executed by the user. The protection area setting process is realized by the
所望する防護エリアが直方体であることを想定していることから、第1の手法では、防護エリアの指標となる4つのマーカM1~M4を用いる。ユーザは、図1に示すように、マーカM1~M4を、基準面としての床面上において所望する防護エリアの底面の頂点に配置する。マーカM1~M4としては例えば、シールなどが採用されるが、立体物であってもよい。測距を確実に行うために、マーカM1~M4の明度は高い方がよい。 Since it is assumed that the desired protection area is a rectangular parallelepiped, the first method uses four markers M1 to M4 as indicators of the protection area. As shown in FIG. 1, the user arranges the markers M1 to M4 at the vertices of the bottom surface of the desired protection area on the floor surface as the reference surface. As the markers M1 to M4, for example, stickers are adopted, but they may be three-dimensional objects. In order to reliably perform distance measurement, the brightness of the markers M1 to M4 should be high.
なお、マーカM1~M4は独立した部材でなくてもよく、マーカM1~M4の相対的な位置関係を正確に設定するために、マーカ同士を連結部材で連結したものを用いてもよい。また、第1の手法においては、ユーザは、所望する防護エリアの上面の頂点までの高さ情報を制御部30に与える。この高さ情報は、マーカの各々に対応して基準面(床面)から鉛直方向に離れた位置を示す既知の値であり、RAM33に記憶される。なお、マーカM1~M4を設置する基準面は床面に限らず、机面等の平坦面であってもよい。
Note that the markers M1 to M4 may not be independent members, and in order to accurately set the relative positional relationship of the markers M1 to M4, the markers may be connected by connecting members. In the first method, the user provides the
まず、ステップS101では、ユーザは、床面上において、所望する防護エリアの底面の頂点の位置にマーカM1~M4を設置(配置)する。なお、マーカM1~M4が既に設置済みの場合に、ユーザは、マーカM1~M4の設置のやり直しをしてもよい。ステップS102では、ユーザは、センサ10A、10Bを設置するか、または、設置済みの場合は必要に応じて位置を調整する。センサ10A、10Bの位置には、3次元方向の位置だ
けでなく、向きも含まれる。ユーザは、マーカM1~M4が各センサの視野(画角)に入るようにセンサ10A、10Bの位置や向きを決める。ステップS103では、ユーザは、センサ10A、10Bによる測距を実行するようCPU31に対して指示する(測距指示)。ここでいう測距は、距離情報だけでなく輝度情報を取得することも含む。
First, in step S101, the user sets (arranges) the markers M1 to M4 on the floor at the apexes of the bottom surface of the desired protection area. Note that if the markers M1 to M4 have already been placed, the user may redo the placement of the markers M1 to M4. In step S102, the user installs the
一方、ステップS201では、CPU31は、ユーザからの測距指示を待ち、測距指示があると、ステップS202に進む。ステップS202では、CPU31は、センサ10A、10Bに測距を実行させる。センサ10A、10Bからは、それぞれの測定結果が交互にCPU31に供給される。CPU31は、一定期間の測定結果を得ると、ステップS203で、防護エリア設定処理を実行する。この防護エリア設定処理では、まず、CPU31は、測定結果のうち各センサにより出力された輝度情報に基づいて、各々に対応する輝度画像を画面に表示させる。
On the other hand, in step S201, the
図6は、2つの画面に表示された輝度画像の例を示す図である。表示部34には、画面34Aと画面34Bとが表示される。センサ10A、10Bにそれぞれ対応する輝度画像が、画面34A、34Bに並んで表示される。それぞれの輝度画像において、マーカM1~M4に対応する部分がとりわけ明るく視認される。ユーザは、画面上における4つの明るい位置から、画面上における防護エリアの底面の頂点の位置を認識することができる。
FIG. 6 is a diagram showing examples of luminance images displayed on two screens. The
画面34A、34Bが表示されると、ステップS104で、ユーザは、それぞれの画面上でマーカM1~M4が表示されている位置を指定することで、マーカM1~M4の位置を制御部30に教示する。ここでの位置の指定方法は問わないが、例えば、マウスカーソルを該当位置に合わせて確定ボタンを押す、等の操作による。数値により画面上の座標を入力してもよい。
When the
画面上での位置が指定されると、CPU31は、防護エリア設定処理(S203)において、さらに次のようにして各センサと防護エリアの8つの頂点との相対的な位置関係を把握する。
When the position on the screen is specified, the
図7は、マーカM1~M4の相対的な位置関係を特定する様子を示す概念図である。図7では、理解を容易にするために、防護エリアの8つの頂点のうちマーカM1~M4について示してある。 FIG. 7 is a conceptual diagram showing how the relative positional relationships of the markers M1 to M4 are specified. In FIG. 7, markers M1 to M4 of the eight vertices of the protection area are shown for easy understanding.
まず、CPU31は、センサ10Aから得られた距離情報に基づく距離画像から、センサ10Aの原位置を基準とした座標系におけるマーカM1~M4の3次元座標を求める(図7のF1)。同様に、CPU31は、センサ10Bから得られた距離情報に基づく距離画像から、センサ10Bの原位置を基準とした座標系におけるマーカM1~M4の3次元座標を求める(図7のF2)。
First, the
そして、CPU31は、それぞれの距離画像における同じ位置の画素から、マーカM1~M4の各々までの距離を決定する。すなわち、例えばCPU31は、F1でのマーカM1の3次元座標とF2でのマーカM1の3次元座標とが同じ点であると決定する。同様にしてCPU31は、F1でのマーカM2、M3、M4の3次元座標とF2でのマーカM2、M3、M4の3次元座標とが同じ点であると決定する。これらの決定を条件として、CPU31は、F3で示すように、グローバル座標系(XYZ)においては、F1でのマーカM1~M4がF2でのマーカM1~M4と同じ位置を指していると決定する。
Then, the
図7では4点についてだけ示したが、実際には、マーカの各々に対応する高さ情報を用いて、防護エリアの8つの頂点について図7で示したような処理が実行されることで、各センサと防護エリアの8つの頂点との相対的な位置関係が把握される。高さ情報は、ステ
ップS103の実行以前にユーザが入力することでRAM33に記憶される。グローバル座標系での8つの頂点を決定すると、CPU31は、防護エリア41を設定する。なお、RAM33に記憶されている高さ情報を基に、防護エリアの上側の4つの頂点の座標を計算したときに、もし、上側の頂点の座標がセンサ10A、10Bのいずれか又は両方の測定可能領域の外側であることが判明した場合(つまり、防護エリアがセンサの測定可能領域内に収まっていない場合)には、CPU31はその旨をユーザに通知し、高さ情報の再入力やセンサ位置の調整を促してもよい。
Although only four points are shown in FIG. 7, the height information corresponding to each marker is actually used to perform the processing shown in FIG. A relative positional relationship between each sensor and the eight vertices of the protected area is grasped. The height information is stored in the
ステップS204で、CPU31は、設定した防護エリア41を表示させる。図8は、防護エリア41の表示例を示す図である。一例として、CPU31は、センサ10Aの画角における画面に、床面である基準面40と共に、防護エリア41を立体的に表示させる。これにより、ユーザは、現在のセンサ10A、10Bの設置状態における防護エリア41の位置を視認することができる。なお、防護エリア41は、センサ10Bの画角による画面に表示されてもよいし、センサ10A、10Bの画角による2画面に並べて表示されてもよい。
In step S204, the
ここで、防護エリア41の設定に関し、CPU31は、グローバル座標系(センサ10A、10Bで共通の座標系)において防護エリア41の各頂点の座標を特定することで、防護エリア41が占める3次元の領域を規定してもよい。あるいは、CPU31は、センサ10A、10Bの原位置を基準とする画素ごとの奥行き情報(mm~mmの範囲等)を特定することで、防護エリア41が占める3次元の領域を規定してもよい。
Here, regarding the setting of the
ステップS105では、ユーザは、画面に表示された防護エリア41を見て、適切であれば、この防護エリア41で確定することを示すOK指示を入力し、適切でなく設置をやり直したい場合は、やり直しの指示を入力する。一方、ステップS205では、CPU31は、ユーザからのOK指示またはやり直しの指示を待つ。やり直しの指示が入力された場合は、ステップS105からステップS101に戻ると共に、ステップS205からステップS201に戻る。従って、この場合、ユーザは、ステップS101でマーカの設置のやり直しができ、さらにステップS102でセンサ10A、10Bの設置のやり直しができる。物体検出システム100においては、測距指示を待って測距が再度実行される。
In step S105, the user looks at the
OK指示が入力された場合は、図5に示す処理は終了する。この場合、防護エリア41の設定は確定し、CPU31は、その後の物体検出等の処理や安全制御に移行することができる。
If the OK instruction is input, the processing shown in FIG. 5 ends. In this case, the setting of the
このように第1の手法によれば、ユーザがマーカを設置して測距させた後、輝度画像上で8つの頂点を指定することで防護エリア41が設定されるので、防護エリア41の設定作業を補助することができる。
As described above, according to the first method, the protected
なお、第1の手法において、防護エリア41の設定には、マーカM1~M4と高さ情報とを用いたが、これに限定されず、図9に例示するように、8頂点に対応するマーカを用いてもよい。
In the first method, the markers M1 to M4 and the height information are used to set the
図9は、8つのマーカを備えるターゲットの例を示す図である。このターゲットは、第1マーカ(マーカM1~M4)と、第1マーカの各々に対応して基準面40から鉛直方向に離れた位置に配置された第2マーカ(マーカM5~M8)とを含む。底面側のマーカM1~M4は矩形をなすように連結部材42で連結され、上面側のマーカM5~M8も矩形をなすように連結部材42で連結されている。さらに、マーカM1~M4とマーカM5~M8とも連結部材42で連結されている。マーカM1~M4とマーカM5~M8との位置が決まっているので、上記した高さ情報を与える必要がない。その他の処理においては、
図5で説明したものと同じである。
FIG. 9 is a diagram showing an example target with eight markers. This target includes first markers (markers M1 to M4) and second markers (markers M5 to M8) arranged at positions separated from the
It is the same as that explained in FIG.
<第2の手法>
図10~図13で第2の手法について説明する。
<Second method>
The second method will be described with reference to FIGS. 10 to 13. FIG.
図10は、第2の手法におけるセンサ設置処理および防護エリア設定処理を示すフローチャートである。このセンサ設置処理はユーザによって実行される。また、防護エリア設定処理は、ROM32に格納されたプログラムをCPU31がRAM33に展開して実行することにより実現される。防護エリア設定処理は、ユーザの指示により開始され、センサ設置処理と並行してCPU31により実行される。
FIG. 10 is a flow chart showing sensor installation processing and protection area setting processing in the second method. This sensor installation processing is executed by the user. The protection area setting process is realized by the
まず、ステップS301では、ユーザは、マーカM1~M3を床面上に設置する。ここで、第2の手法におけるマーカM1~M3は、平面を規定する指標であるので、直線上に並ばないように同一平面上に配置すればよく、所望する防護エリアの底面の頂点に配置する必要は必ずしもない。なお、マーカM1~M3が既に設置済みの場合に、ユーザは、マーカM1~M3の設置のやり直しをしてもよい。ステップS302では、ユーザは、センサ10A、10Bを設置するか、または、設置済みの場合は必要に応じて位置を調整する。ユーザは、マーカM1~M3が各センサの視野(画角)に入るようにセンサ10A、10Bの位置や向きを決める。なお、マーカの代わりとなる目印が床面にすでに存在する場合には、あらためてマーカを設置する必要はない。例えば、床面に、目印となるような図形や模様が描かれていたり、目印となるような特徴的なオブジェクトが存在したりし、ユーザが座標教示時に目視で整合が取れる場合には、マーカの代替となり得る。
First, in step S301, the user places markers M1 to M3 on the floor. Here, since the markers M1 to M3 in the second method are indices that define a plane, they may be placed on the same plane so as not to line up on a straight line, and placed at the vertices of the bottom surface of the desired protection area. Not necessarily. Note that if the markers M1 to M3 have already been placed, the user may redo the placement of the markers M1 to M3. In step S302, the user installs the
ステップS303、S401、S402では、図5のステップS103、S201、S202と同様の処理が実行される。CPU31は、一定期間の測定結果を得ると、ステップS403で、重複空間表示処理を実行する。この処理を図11、図12で説明する。
In steps S303, S401 and S402, the same processes as in steps S103, S201 and S202 of FIG. 5 are executed. When the
図11は、輝度画像および視野範囲の表示例を示す図である。図6と同様に、センサ10A、10Bにそれぞれ対応する輝度画像が、画面34A、34Bに並んで表示される。それぞれの輝度画像において、マーカM1~M3に対応する部分がとりわけ明るく視認される。
FIG. 11 is a diagram showing a display example of a luminance image and a visual field range. Similar to FIG. 6, luminance images corresponding to the
CPU31は、測定結果における距離情報に基づいて、センサ10A、10Bの各々を基準とする基準面40を定義する。すなわち、画面34A上におけるマーカM1~M3の各位置と、画面34B上におけるマーカM1~M3の各位置とがグローバル座標系において同じ位置を指すことから、CPU31は、マーカM1~M3の各位置と、センサ10A、10Bから取得された距離情報とに基づいて、それぞれの基準面40を定義することができる。
そして、CPU31は、例えば、画面34Aに、センサ10Aを基準とする空間座標系に、定義された基準面40と併せて、センサ10Bの視野範囲43を立体表示させる。視野範囲43は、測定可能領域RB(図1)に相当する立体形状である。なお、画面34Bにおいて、センサ10Bを基準とする空間座標系に、定義された基準面40と併せて、センサ10Aの視野範囲(測定可能領域RAに相当する立体形状)を立体表示させてもよい。これら双方の視野範囲を2画面に並べて表示してもよい。
Then, for example, the
その後、例えば、ユーザからの指示に応じて、視野範囲43の表示から重複空間Rxの表示へと遷移する。図12は、重複空間Rxの表示例を示す模式的な概念図である。重複空間Rxの形状は、センサ10A、10Bの視野範囲同士(測定可能領域同士)の重なり方で決まり、多くの場合は多面体形状となるが、図12では模式的に球体で示してある。
After that, for example, the display of the
図12に示すように、CPU31は、例えば画面34Aにおいて、センサ10Aを基準とする空間座標系に、定義された基準面40と併せて、重複空間Rxを3次元表示させる。なお、画面34Bにおいて、センサ10Bを基準とする空間座標系に、定義された基準面40と併せて、重複空間Rxを3次元表示させてもよい。これら双方を2画面に並べて表示してもよい。
As shown in FIG. 12, the
重複空間Rxが表示されると、ステップS304で、ユーザは、これにて防護エリアの頂点の指定へ移行することを示すOK指示か、またはやり直すことを示すやり直しの指示を入力する。例えば、ユーザは、重複空間Rxに所望する防護エリアが十分に包含されると判断すれば、OK指示を入力する。一方、ステップS404では、CPU31は、ユーザからのOK指示またはやり直しの指示を待つ。やり直しの指示が入力された場合は、ステップS304からステップS301に戻ると共に、ステップS404からステップS401に戻る。従って、この場合、ユーザは、ステップS301でマーカの設置のやり直しができ、さらにステップS302でセンサ10A、10Bの設置のやり直しができる。CPU31では、測距指示を待って測距が再度実行される。
When the overlapped space Rx is displayed, in step S304, the user inputs an OK instruction indicating that this will move to the designation of the apex of the protection area, or a redo instruction indicating that the process should be redone. For example, if the user determines that the desired protection area is sufficiently included in the overlapping space Rx, the user inputs an OK instruction. On the other hand, in step S404,
OK指示が入力された場合は、ステップS304からステップS305に進むと共に、ステップS404からステップS405に進む。ステップS305では、重複空間Rxが表示された空間座標系において、ユーザは、所望する防護エリアの頂点を示す位置情報(例えば、8点の位置)を指定する。通常、当該頂点は重複空間Rxの内側で指定される。なお、この際の入力方法は、立体形状を指定できる方法であればよく、例えば、個々の頂点の画面上の座標および距離情報を示す数値などを入力してもよい。 When the OK instruction is input, the process proceeds from step S304 to step S305, and from step S404 to step S405. In step S305, the user designates position information (e.g., positions of eight points) indicating the vertices of the desired protection area in the spatial coordinate system in which the overlapping space Rx is displayed. Usually the vertex is specified inside the overlapping space Rx. The input method at this time may be any method as long as it can specify a three-dimensional shape. For example, numerical values indicating the coordinates of individual vertices on the screen and distance information may be input.
防護エリアの頂点が指定されると、ステップS405では、CPU31は、指定点に従って防護エリア41を設定し、表示させる。この際の防護エリア41の表示態様は、図8に示したものと同様である。これにより、ユーザは、現在のセンサ10A、10Bの設置状態における防護エリア41の位置を視認することができる。
When the vertex of the protected area is designated, in step S405, the
ここで、CPU31による防護エリア41の各頂点の3次元座標の特定については、ステップS203で説明したのと同様である。ステップS306、S406では、図5のステップS105、S205と同様の処理が実行される。例えば、やり直しの指示が入力された場合は、ステップS306からステップS301に戻ると共に、ステップS406からステップS401に戻る。従って、この場合、ユーザは、ステップS301でマーカの設置のやり直しができ、さらにステップS302でセンサ10A、10Bの設置のやり直しができる。物体検出システム100においては、測距指示を待って測距が再度実行される。
Here, the specification of the three-dimensional coordinates of each vertex of the
図13は、やり直し後の輝度画像および視野範囲の表示例を示す図であり、図11に対応している。一例として、センサ10Bだけ設置位置を変更した場合を例にとる。図11に対応する設置状態から、センサ10Bの設置位置が変化したため、図13では、図11に対し、画面34Bにおける表示内容が変化している。これに応じて、画面34Aに表示されるセンサ10Bの視野範囲43も変化している。
FIG. 13 is a diagram showing a display example of the brightness image and the visual field range after redoing, and corresponds to FIG. As an example, a case where only the
OK指示が入力された場合は、図10に示す処理は終了する。この場合、防護エリア41の設定は確定し、CPU31は、その後の物体検出等の処理や安全制御に移行することができる。
If the OK instruction is input, the processing shown in FIG. 10 ends. In this case, the setting of the
このように第2の手法によれば、ユーザがマーカを設置して測距させた後、重複空間Rxが表示された空間座標系において8つの頂点を指定することで防護エリア41が設定さ
れるので、防護エリア41の設定作業を補助することができる。また、重複空間Rxが表示された段階でも、マーカやセンサの設置をやり直すことができるので、一層細かな調整を行うことができる。
Thus, according to the second method, after the user sets the marker and measures the distance, the
本実施の形態によれば、CPU31は、互いの測定可能領域RA、RBの少なくとも一部が重なるように配置されたセンサ10A、10Bによる距離情報の出力タイミングを互いにずらすように制御する。これにより、物体検出の応答速度を速めることができる。
According to the present embodiment,
特に、センサ10A、10Bの各々が順次、等時間間隔(T2=T1/2)で距離情報を出力するように制御されるので、応答速度を効率的に速めることができる。しかも、測定可能領域が互いに重複する重複空間Rxに防護エリア41が包含されるように、センサ10A、10Bの各々を配置することで、防護エリア41での高い応答速度を確保することができる。
In particular, since each of the
また、第1の手法(図5)において、CPU31は、所望する防護エリアの指標となるマーカを配置した状態で測距した場合の輝度画像を画面に表示させ(図6)、画面上におけるユーザからの位置の指定と距離情報とに基づいて、防護エリア41を設定する(図8)。また、第2の手法(図10)において、CPU31は、平面を規定する指標となるマーカを配置した状態で測距した場合の距離情報に基づいて、各センサを基準とする基準面40を定義する。そしてCPU31は、空間座標系に、定義された基準面40と併せて、両センサの互いに重複する測定可能領域を重複空間Rxとして3次元表示させる(図12)。そして、画面上におけるユーザからの位置の指定と距離情報とに基づいて、防護エリア41を設定する(図8)。よって、防護エリアの設定作業を補助することができる。
Further, in the first method (FIG. 5), the
<変形例>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<Modification>
The above-described embodiment is merely an example of the configuration of the present invention. The present invention is not limited to the specific forms described above, and various modifications are possible within the technical scope of the present invention.
なお、距離情報の出力タイミングを互いにずらすことで物体検出の応答速度を速めるという効果を得る観点に限れば、用いる3次元距離センサは、少なくとも、3次元の距離情報を周期的に出力するセンサであれば、他の種類のセンサを採用してもよい。TOFセンサを採用する場合、直接型(ダイレクト型)と間接型(インダイレクト型)のいずれでもよい。 From the standpoint of obtaining the effect of speeding up the response speed of object detection by shifting the output timing of distance information, the three-dimensional distance sensor used is at least a sensor that periodically outputs three-dimensional distance information. Other types of sensors, if any, may be employed. When a TOF sensor is employed, it may be either of a direct type (direct type) or an indirect type (indirect type).
なお、図4で説明したように、センサ10A、10Bの各々が順次、等時間間隔(周期T2)で測定結果を出力するように制御された。出力タイミングが等時間間隔でなくても、ずれていれば、単一のセンサだけで検出を行うことに比べれば、物体検出の応答速度を速める効果は得られる。また、センサ10A、10Bのフレーム期間T1は共通としたが、必ずしも共通でなくてもよい。
As described with reference to FIG. 4, each of the
また、用いる3次元距離センサが3つ以上であっても、出力タイミングをずらす制御を適用可能である。各センサの出力タイミングが等時間間隔となるように制御すれば、応答速度を効率的に速めることが可能である。 Also, even when three or more three-dimensional distance sensors are used, it is possible to apply control to shift the output timing. The response speed can be efficiently increased by controlling the output timing of each sensor to be at equal time intervals.
なお、防護エリアの形状は直方体等の多面体に限定されない。第1の手法において、防護エリアの底面の頂点に配置するために用いるマーカの数は4つでなくてもよく、3つ以上であればよい。 Note that the shape of the protection area is not limited to a polyhedron such as a rectangular parallelepiped. In the first method, the number of markers used for arranging the vertices of the bottom surface of the protected area does not have to be four, and may be three or more.
なお、第2の手法において、平面を規定する指標としてマーカを用いたが、マーカの数
は、4以上であってもよい。あるいは、既知の形状のシートでもよい。また、第2の手法において、制御部30によるセンサ10A、10Bの自動駆動が可能な構成としてもよい。このような構成とした場合、例えば、重複空間Rxが表示された空間座標系において、ユーザが8点の位置の指定により防護エリア41が設定された後、防護エリア41が空間座標系の中央に位置するように、制御部30がセンサ10A、10Bを駆動してもよい。
In addition, in the second method, markers are used as indices for defining a plane, but the number of markers may be four or more. Alternatively, it may be a sheet of known shape. Further, in the second method, the configuration may be such that the
なお、距離情報の出力タイミングを互いにずらすことで物体検出の応答速度を速めるという効果を得る観点に限れば、防護エリアを設定することは必須でない。 It should be noted that it is not essential to set a protection area if the effect of speeding up the object detection response speed is obtained by shifting the output timings of the distance information.
なお、防護エリアでの高い応答速度を確保するという効果を得る観点に限れば、防護エリアを設定する手法は問わず、上記第1、第2の手法を用いることは必須でない。 From the standpoint of obtaining the effect of ensuring a high response speed in the protected area, it is not essential to use the above first and second techniques regardless of the technique for setting the protected area.
<付記>
〔1〕 互いの測定可能領域(RA、RB)の少なくとも一部が重なるように配置され、前記測定可能領域の距離情報を周期的に出力する、複数の撮像手段(10A、10B)と、
複数の前記撮像手段により出力された前記距離情報に基づいて物体を検出する物体検出手段(30)と、
複数の前記撮像手段による前記距離情報の出力タイミングを互いにずらすように制御する制御手段(30)と、
を有することを特徴とする物体検出システム(100)。
<Appendix>
[1] a plurality of imaging means (10A, 10B) arranged so that at least parts of the measurable regions (RA, RB) overlap with each other, and periodically outputting distance information of the measurable regions;
an object detection means (30) for detecting an object based on the distance information output by the plurality of imaging means;
a control means (30) for controlling output timings of the distance information by the plurality of imaging means so as to be shifted from each other;
An object detection system (100) comprising:
〔2〕 作業機械と、
共通のエリア(Rx)を撮像できるように設置され、それぞれが所定の時間間隔で周期的に撮像する複数の撮像手段(10A、10B)と、
前記複数の撮像手段(10A、10B)から出力される画像に基づいて前記エリア(Rx)にある物体を検出する物体検出手段(30)と
を有する安全制御システムにおける動作を制御する制御装置(50)であって、
互いの撮像タイミングを前記時間間隔よりも短い時間ずらすように前記複数の撮像手段(10A、10B)を制御する撮像制御手段(30)と、
前記物体検出手段(30)の検出結果に基づいて前記作業機械の動作を制限する安全制御手段(30)と
を備えることを特徴とする制御装置(50)。
[2] a working machine;
a plurality of imaging means (10A, 10B) installed so as to be able to image a common area (Rx), each of which periodically images at a predetermined time interval;
an object detection means (30) for detecting an object in the area (Rx) based on the images output from the plurality of imaging means (10A, 10B);
A controller (50) for controlling operation in a safety control system comprising:
an imaging control means (30) for controlling the plurality of imaging means (10A, 10B) so as to shift imaging timings of each other by a time shorter than the time interval;
A control device (50) comprising: safety control means (30) for limiting the operation of the work machine based on the detection result of the object detection means (30).
10A、10B:3次元距離センサ
30:制御部
31:CPU
41:防護エリア
100:物体検出システム
RA、RB:測定可能領域
Rx:重複空間
T1:フレーム期間
T2:周期
10A, 10B: three-dimensional distance sensor 30: control unit 31: CPU
41: Protection area 100: Object detection system RA, RB: Measurable area Rx: Overlapping space T1: Frame period T2: Period
Claims (11)
複数の前記撮像手段により出力された前記距離情報に基づいて物体を検出する物体検出手段と、
複数の前記撮像手段による前記距離情報の出力タイミングを互いにずらすように制御する制御手段と、
を有することを特徴とする物体検出システム。 a plurality of imaging means arranged so that at least a part of each other's measurable regions overlaps, and periodically outputting distance information within the measurable regions;
an object detection means for detecting an object based on the distance information output by the plurality of imaging means;
a control means for controlling output timings of the distance information by the plurality of imaging means so as to be shifted from each other;
An object detection system comprising:
前記制御手段は、前記複数の撮像手段から、等時間間隔で前記距離情報が出力されるように制御することを特徴とする請求項1に記載の物体検出システム。 an output cycle of the distance information by each of the imaging means is common,
2. The object detection system according to claim 1, wherein said control means controls said plurality of imaging means to output said distance information at equal time intervals.
前記制御手段は、n個の前記撮像手段から、T/nの時間間隔で前記距離情報が出力されるように制御することを特徴とする請求項2に記載の物体検出システム。 When the number of imaging means is n (n is an integer equal to or greater than 2) and the output period is T,
3. The object detection system according to claim 2, wherein said control means controls such that said distance information is output from said n imaging means at time intervals of T/n.
複数の前記撮像手段の測定可能領域が互いに重複する重複空間に、前記設定手段により設定された防護エリアが包含されるように、前記撮像手段の各々が配置されていることを特徴とする請求項1~3のいずれか1項に記載の物体検出システム。 Having setting means for setting a virtual protection area for object detection,
3. Each of said imaging means is arranged so that the protection area set by said setting means is included in an overlapping space in which the measurable regions of said plurality of said imaging means overlap each other. 4. The object detection system according to any one of 1 to 3.
前記撮像手段の各々は前記距離情報と共に輝度情報も出力し、
前記制御手段は、所望する防護エリアの指標となるマーカを配置した状態で前記撮像手段の各々により出力された前記輝度情報に基づいて、前記撮像手段の各々に対応する輝度画像を画面に表示させ、
前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報とに基づいて、前記仮想的な防護エリアを設定することを特徴とする請求項1~3のいずれか1項に記載の物体検出システム。 Having setting means for setting a virtual protection area for object detection,
each of the imaging means outputs luminance information together with the distance information;
The control means causes a brightness image corresponding to each of the imaging means to be displayed on a screen based on the brightness information output by each of the imaging means with a marker serving as an index of a desired protection area arranged. ,
4. The setting device according to claim 1, wherein said setting means sets said virtual protection area based on a user's designation of a position on said screen and said output distance information. 2. The object detection system according to item 1.
前記設定手段は、前記画面上におけるユーザからの位置の指定と、出力された前記距離情報と、前記マーカの各々に対応して前記基準面から鉛直方向に離れた位置を示す既知の高さ情報とに基づいて、前記仮想的な防護エリアを設定することを特徴とする請求項5に記載の物体検出システム。 three or more of the markers are arranged on a reference plane;
The setting means includes a user's designation of a position on the screen, the output distance information, and known height information indicating a position away from the reference plane in the vertical direction corresponding to each of the markers. 6. The object detection system according to claim 5, wherein the virtual protection area is set based on and.
前記設定手段は、前記空間座標系でのユーザからの指示に基づいて前記仮想的な防護エリアを設定することを特徴とする請求項4に記載の物体検出システム。 The control means defines a reference plane based on each of the imaging means based on the distance information output by each of the imaging means in a state in which an index defining a plane is placed on the reference plane, and a plurality of three-dimensionally displaying the overlapping measurable regions of the plurality of imaging means as the overlapping space in a spatial coordinate system based on any one of the imaging means of let
5. The object detection system according to claim 4, wherein said setting means sets said virtual protection area based on an instruction from a user in said spatial coordinate system.
共通のエリアを撮像できるように設置され、それぞれが所定の時間間隔で周期的に撮像する複数の撮像手段と、
前記複数の撮像手段から出力される画像に基づいて前記エリアにある物体を検出する物体検出手段と
を有する安全制御システムにおける動作を制御する制御装置であって、
互いの撮像タイミングを前記時間間隔よりも短い時間ずらすように前記複数の撮像手段を制御する撮像制御手段と、
前記物体検出手段の検出結果に基づいて前記作業機械の動作を制限する安全制御手段と
を備えることを特徴とする制御装置。 a working machine;
a plurality of imaging means installed so as to be able to image a common area, each of which periodically images at a predetermined time interval;
and object detection means for detecting an object in the area based on the images output from the plurality of imaging means, and
imaging control means for controlling the plurality of imaging means so as to shift imaging timings of each other by a time shorter than the time interval;
and safety control means for restricting the operation of the work machine based on the detection result of the object detection means.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037960A JP2022138211A (en) | 2021-03-10 | 2021-03-10 | Object detection system and control device |
PCT/JP2021/047126 WO2022190544A1 (en) | 2021-03-10 | 2021-12-20 | Object detection system and control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037960A JP2022138211A (en) | 2021-03-10 | 2021-03-10 | Object detection system and control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022138211A true JP2022138211A (en) | 2022-09-26 |
Family
ID=83226212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021037960A Pending JP2022138211A (en) | 2021-03-10 | 2021-03-10 | Object detection system and control device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022138211A (en) |
WO (1) | WO2022190544A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10419703B2 (en) * | 2014-06-20 | 2019-09-17 | Qualcomm Incorporated | Automatic multiple depth cameras synchronization using time sharing |
JP6789767B2 (en) * | 2016-11-11 | 2020-11-25 | スタンレー電気株式会社 | Monitoring system |
EP4088891A1 (en) * | 2017-02-07 | 2022-11-16 | Veo Robotics, Inc. | Workspace safety monitoring and equipment control |
EP3611422B1 (en) * | 2018-08-15 | 2020-10-14 | Sick Ag | Sensor assembly and method for securing a supervised area |
JP7205179B2 (en) * | 2018-11-19 | 2023-01-17 | 株式会社Ihi | Monitoring system |
EP3671277A1 (en) * | 2018-12-21 | 2020-06-24 | Infineon Technologies AG | 3d imaging apparatus and method |
-
2021
- 2021-03-10 JP JP2021037960A patent/JP2022138211A/en active Pending
- 2021-12-20 WO PCT/JP2021/047126 patent/WO2022190544A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022190544A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3033972C (en) | Robotic system and method for operating on a workpiece | |
EP2405403A1 (en) | Three Dimensional User Interface | |
JP5897624B2 (en) | Robot simulation device for simulating workpiece removal process | |
US10888998B2 (en) | Method and device for verifying one or more safety volumes for a movable mechanical unit | |
US20140288706A1 (en) | Robot system and method for producing to-be-processed material | |
US20150091446A1 (en) | Lighting control console and lighting control system | |
US11148299B2 (en) | Teaching apparatus and teaching method for robots | |
CN103921265A (en) | Robot Teaching System And Robot Teaching Method | |
JP2012218120A (en) | Manipulator operation previous notice device, robot system and method for previously noticing manipulator operation | |
CN106247943A (en) | Article 3-D positioning method, device and system | |
WO2019239848A1 (en) | Robot control system | |
JP2013025478A (en) | Work detection system | |
US11937024B2 (en) | Projection system, projection device and projection method | |
US20180374265A1 (en) | Mixed reality simulation device and computer readable medium | |
WO2022190544A1 (en) | Object detection system and control device | |
CN103455141A (en) | Interactive projection system and correction method of depth sensor and projector of interactive projection system | |
US20210256865A1 (en) | Display system, server, display method, and device | |
KR20210060762A (en) | 3-dimensional scanning system for inspection by pixels of display and the method thereof | |
WO2022190548A1 (en) | Object detection system and control device | |
JP2008065522A (en) | Information display system and pointing control method | |
US11803109B2 (en) | Projection method, projection device, and projection system | |
JP2003280813A (en) | Pointing device, pointer controller, pointer control method and recording medium with the method recorded thereon | |
JP7276107B2 (en) | detection system | |
Vincze et al. | What-You-See-Is-What-You-Get Indoor Localization for Physical Human-Robot Interaction Experiments | |
TWI692727B (en) | Object positioning guidance system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240116 |