JP7347960B2 - Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system - Google Patents

Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system Download PDF

Info

Publication number
JP7347960B2
JP7347960B2 JP2019093787A JP2019093787A JP7347960B2 JP 7347960 B2 JP7347960 B2 JP 7347960B2 JP 2019093787 A JP2019093787 A JP 2019093787A JP 2019093787 A JP2019093787 A JP 2019093787A JP 7347960 B2 JP7347960 B2 JP 7347960B2
Authority
JP
Japan
Prior art keywords
area
dangerous
map
intrusion detection
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019093787A
Other languages
Japanese (ja)
Other versions
JP2020188432A (en
Inventor
隆弘 足立
学 岸本
悦子 速水
浩 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2019093787A priority Critical patent/JP7347960B2/en
Publication of JP2020188432A publication Critical patent/JP2020188432A/en
Application granted granted Critical
Publication of JP7347960B2 publication Critical patent/JP7347960B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

この発明は撮影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法に関し、特にたとえば、危険領域を含む撮影領域を撮影する距離画像センサからの距離画像に基づいて、危険領域への人の侵入を検出することができる、撮影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法に関する。 The present invention relates to a photographing direction setting device, a photographing direction setting program, a photographing direction setting method, and an intrusion detection method for an intrusion detection system. The present invention relates to a photographing direction setting device, a photographing direction setting program, a photographing direction setting method, and an intrusion detection method for an intrusion detection system that can detect human intrusion into a dangerous area.

この種の技術は、たとえば、機械等の周囲で作業する作業者の安全確保を図るために利用され得る。 This type of technology can be used, for example, to ensure the safety of workers working around machines and the like.

この発明の背景となる作業環境監視装置の一例が特許文献1に開示されている。特許文献1の作業環境監視装置は、ロボットの作業空間を撮るカメラと、カメラの撮影画像に基づいて作業空間内における移動物体の有無とその位置を検出する検出手段と、移動物体の位置がロボットに近接した位置にある場合に警告を発生する警告手段とを備えている。 An example of a working environment monitoring device that forms the background of this invention is disclosed in Patent Document 1. The work environment monitoring device of Patent Document 1 includes a camera that takes a picture of a robot's work space, a detection means that detects the presence or absence of a moving object in the work space and its position based on images taken by the camera, and a detection means that detects the presence or absence of a moving object in the work space and its position. and a warning means for issuing a warning when the vehicle is located close to the vehicle.

また、特許文献1の作業環境監視装置では、ロボット作業空間を上方向から撮るカメラと、ロボット作業空間を横方向から撮るカメラとの2台のカメラを備え、上方向からの撮影画像と横方向からの撮影画像とを合わせることにより作業空間を3次元画像として取り扱い、移動物体の位置を3次元空間において検出し、ロボットと移動物体との接触の可能性を判断することができる。 Further, the work environment monitoring device of Patent Document 1 includes two cameras, one camera that takes a picture of the robot work space from above, and the other camera that takes a picture of the robot work space from the side. It is possible to treat the work space as a three-dimensional image, detect the position of the moving object in the three-dimensional space, and determine the possibility of contact between the robot and the moving object.

以上のような構成を備えることによって、特許文献1の作業環境監視装置は、上方向からの画像だけでは接触の危険性があると判断される場合にも、横方向からの画像により高低差があるため接触しないと判断できれば、無用な警告やロボットの停止を極力減らすことができるとしている。 By having the above configuration, the work environment monitoring device of Patent Document 1 can detect height differences using images from the side, even when it is determined that there is a risk of contact based only on images from above. If it can be determined that there will be no contact, unnecessary warnings and robot stoppages can be reduced as much as possible.

特開平05-261692号公報[G01B 11/00]Japanese Patent Application Publication No. 05-261692 [G01B 11/00]

しかしながら、特許文献1の作業環境監視装置では、移動物体の位置を3次元空間において検出するためには、2台以上のカメラを設ける必要があり、構成が複雑化し、ひいては製造コストの増大を招くという問題がある。また、作業環境によっては、2台以上のカメラを設けることが困難な場合もある。 However, in the work environment monitoring device of Patent Document 1, in order to detect the position of a moving object in three-dimensional space, it is necessary to provide two or more cameras, which complicates the configuration and increases manufacturing costs. There is a problem. Furthermore, depending on the work environment, it may be difficult to install two or more cameras.

それゆえに、この発明の主たる目的は、新規な、撮影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法を提供することである。 Therefore, the main object of the present invention is to provide a novel photographing direction setting device, photographing direction setting program, photographing direction setting method , and intrusion detection method for an intrusion detection system .

この発明の他の目的は、簡単な距離画像処理によって危険領域への人の侵入を検出することができる、影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法を提供することである。 Another object of the present invention is a shadow direction setting device, a photographing direction setting program, a photographing direction setting method , and an intrusion detection method for an intrusion detection system, which can detect a person's intrusion into a dangerous area by simple distance image processing. The goal is to provide the following .

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 In order to solve the above problems, the present invention employs the following configuration. Note that the reference numerals, supplementary explanations, etc. in parentheses indicate correspondence with the embodiments described later to aid understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成部、および3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部を備え、3次元地図は、複数のボクセルを含み、各ボクセルに危険領域、安全領域、遮蔽領域および開放領域のいずれかが書き込まれていて、設定部は、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する、撮影方向設定装置である。 The first invention provides a determination area that includes a dangerous area that is dangerous if a person enters, a safe area that is safe even if a person enters, a shielded area that is blocked by an obstacle, and an open area where no obstacle exists. The 3D map is equipped with a map generation unit that generates a 3D map of , a plurality of voxels, each voxel is written with either a dangerous area, a safe area, a shielded area, or an open area, and the setting unit is configured to: This is a photographing direction setting device that counts the number of devices that can reach a dangerous area without passing through a shielded area, and sets the direction with the largest number as the photographing direction.

第1の発明では、地図生成部(14、S1、S3、S5)は、人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する。設定部(14、S7~S17)は、3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する。具体的には、地図生成部は、複数のボクセルを含み、各ボクセルに危険領域、安全領域、遮蔽領域および開放領域のいずれかが書き込まれている3次元地図を生成し、設定部は、そのような3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する。 In the first invention, the map generation unit (14, S1, S3, S5) generates a dangerous area that is dangerous if a person enters, a safe area that is safe even if a person enters, and a shielded area that is blocked by an obstacle. A three-dimensional map is generated for the determination area including the area and the open area where no obstacles exist. The setting unit (14, S7 to S17) sets the photographing direction for intrusion detection to the direction with the least blind spots when photographing the dangerous area, based on the three-dimensional map. Specifically, the map generation unit generates a three-dimensional map that includes a plurality of voxels and in which each voxel is written with either a dangerous area, a safe area, a shielded area, or an open area, and the setting unit generates a three-dimensional map that includes a plurality of voxels. In each of a plurality of directions for each voxel included in such a three-dimensional map, the number of directions that can reach the dangerous area without passing through the shielded area is counted, and the direction with the largest number is set as the imaging direction.

第1の発明によれば、最も死角の少ない方向に侵入検出用の撮影方向が設定されるので、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。 According to the first invention, since the photographing direction for intrusion detection is set in the direction with the least blind spots, it is possible to detect the intrusion of a person into a dangerous area by simple distance image processing.

第2の発明は、第1の発明に従属する撮影方向設定装置であって、地図生成部は、危険領域および安全領域を含む危険領域地図と、遮蔽領域および開放領域を含む遮蔽領域地図とを生成し、危険領域地図と、遮蔽領域地図とを合成して3次元地図を生成する。 A second invention is a photographing direction setting device according to the first invention , wherein the map generation unit generates a dangerous area map including a dangerous area and a safe area, and a shielded area map including a shielded area and an open area. A three-dimensional map is generated by combining the dangerous area map and the shielded area map .

第2の発明によれば、適切に3次元地図を生成することができ、侵入検出用の撮影方向を適切に設定することができる。 According to the second invention, it is possible to appropriately generate a three-dimensional map and to appropriately set the photographing direction for intrusion detection.

第3の発明は、撮影方向設定装置のコンピュータを、人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成部、および3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部として機能させ、3次元地図は、複数のボクセルを含み、各ボクセルに危険領域、安全領域、遮蔽領域および開放領域のいずれかが書き込まれていて、設定部は、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する、撮影方向設定プログラムである。 The third aspect of the invention is to configure the computer of the photographing direction setting device into a dangerous area where it is dangerous if a person enters, a safe area where it is safe even if a person enters, a shielding area that is blocked by an obstacle, and an area where the obstacle exists. A map generation unit that generates a three-dimensional map for a determination area including an open area that is not open, and a setting that sets a photographing direction for intrusion detection to a direction with the least blind spots when photographing a dangerous area based on the three-dimensional map. The 3D map includes a plurality of voxels, and each voxel is written with either a danger area, a safe area, a shielded area, or an open area. This is an imaging direction setting program that counts the number of directions that can reach a dangerous area without passing through a shielded area in each of a plurality of directions for voxels, and sets the direction with the largest number as the imaging direction.

第4の発明は、(a)人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成ステップと、(b)ステップ(a)で生成された3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定ステップを含み、ステップ(a)では、複数のボクセルを含み、危険領域、安全領域、遮蔽領域および開放領域のいずれかを各ボクセルに書き込んだ3次元地図を生成し、ステップ(b)では、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する、撮影方向設定方法である。 The fourth invention provides (a) a dangerous area that is dangerous if a person enters, a safe area that is safe even if a person enters, a shielded area that is blocked by an obstacle, and an open area that is free of obstacles. (b) a map generation step of generating a three-dimensional map for the included judgment area; The step (a) includes a setting step of setting a shooting direction, and step (a) generates a three-dimensional map including a plurality of voxels in which one of a dangerous area, a safe area, a shielded area, and an open area is written in each voxel; In (b), in each of the multiple directions for each voxel included in the 3D map, the number of people who can reach the dangerous area without passing through the shielding area is counted, and the direction with the largest number is set as the shooting direction. This is the shooting direction setting method.

第3および第4の発明によれば、第1の発明と同様の効果が期待できる。 According to the third and fourth inventions, the same effects as the first invention can be expected.

第5の発明は、人が侵入すると危険な危険領域を含む撮影領域を互いに異なる方向から撮影して距離画像を出力する複数の距離画像センサを備える侵入検出システムの侵入検出方法であって、(a)危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成ステップと、(b)ステップ(a)で生成された3次元地図に基づいて、複数の距離画像センサのうち、最も死角の少ない方向から危険領域を撮影することができる侵入検出用の距離画像センサを設定する設定ステップと、(c)ステップ(b)で設定された侵入検出用の距離画像センサの撮影方向に直交する切断方向で、侵入検出用の距離画像センサから出力される距離画像から複数の断面画像を生成する断面画像生成ステップと、(d)ステップ(c)で生成された複数の断面画像に基づいて、危険領域に人が侵入したかどうかを検出する侵入検出ステップを含む、侵入検出方法である。 A fifth invention is an intrusion detection method for an intrusion detection system that includes a plurality of distance image sensors that photograph a photographing area including a dangerous area that is dangerous if a person enters from different directions and outputs distance images. a) Map generation that generates a three-dimensional map of a determination area that includes a dangerous area, a safe area where it is safe for people to enter, a shielded area that is blocked by obstacles, and an open area where no obstacles exist. and (b) a distance image sensor for intrusion detection that is capable of photographing a dangerous area from a direction with the least blind spots among a plurality of distance image sensors based on the three-dimensional map generated in step (a). (c) A setting step of setting a plurality of distance images output from the distance image sensor for intrusion detection in a cutting direction perpendicular to the photographing direction of the distance image sensor for intrusion detection set in step (b). and (d) an intrusion detection step of detecting whether a person has entered the dangerous area based on the plurality of cross-sectional images generated in step (c). This is a detection method.

この発明によれば、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。 According to this invention, human intrusion into a dangerous area can be detected by simple distance image processing.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例の安全制御システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a safety control system according to an embodiment of the present invention. 図2は図1に示すメモリのメモリマップの一例を示す図解図である。FIG. 2 is an illustrative diagram showing an example of a memory map of the memory shown in FIG. 図3は図1に示すコンピュータが実行する撮影方向設定動作の一例を示すフロー図である。FIG. 3 is a flowchart showing an example of the shooting direction setting operation executed by the computer shown in FIG. 図4は危険領域を含む判定領域の一例を示す側面図である。FIG. 4 is a side view showing an example of a determination area including a dangerous area. 図5は図4実施例における判定領域の上面図である。FIG. 5 is a top view of the determination area in the embodiment of FIG. 図6は図4実施例の判定領域に基づいた遮蔽領域地図の一例を示す図解図である。FIG. 6 is an illustrative diagram showing an example of a shielding area map based on the determination area of the embodiment in FIG. 図7は図4実施例の判定領域に基づいた危険領域地図の一例を示す図解図である。FIG. 7 is an illustrative diagram showing an example of a dangerous area map based on the determination area of the embodiment in FIG. 図8は図4実施例の判定領域に基づいた合成地図の一例を示す図解図である。FIG. 8 is an illustrative diagram showing an example of a composite map based on the determination area of the embodiment in FIG. 図9は図4実施例の判定領域に基づいたスコアの算出方法の一例を示す図解図である。FIG. 9 is an illustrative diagram showing an example of a method for calculating a score based on the determination area of the embodiment in FIG. 図10は図4実施例における撮影方向毎のスコアを示す図解図である。FIG. 10 is an illustrative diagram showing scores for each photographing direction in the embodiment shown in FIG. 図11は危険領域を含む判定領域の他の例を示す側面図である。FIG. 11 is a side view showing another example of a determination area including a dangerous area. 図12は図11実施例における判定領域の上面図である。FIG. 12 is a top view of the determination area in the embodiment of FIG. 11. 図13は図11実施例の判定領域に基づいたスコアを示す図解図である。FIG. 13 is an illustrative diagram showing scores based on the determination areas of the example in FIG. 11. 図14は図1に示すコンピュータが実行する侵入検出動作の一例を示すフロー図である。FIG. 14 is a flow diagram showing an example of an intrusion detection operation executed by the computer shown in FIG. 図15は侵入検出ステップを詳細に示すフロー図である。FIG. 15 is a flow diagram showing details of the intrusion detection step. 図16は第2実施例の安全制御システムの構成を示す図解図である。FIG. 16 is an illustrative diagram showing the configuration of the safety control system of the second embodiment. 図17は第2実施例の撮影方向設定動作の一例を示すフロー図である。FIG. 17 is a flowchart showing an example of the shooting direction setting operation in the second embodiment.

<第1実施例>
図1を参照して、この実施例の安全制御システム10は、所定の撮影領域を撮影する距離画像センサ12を含む。距離画像センサ12は、一例として、前後左右にそれぞれ40°の視野角または画角を有する。
<First example>
Referring to FIG. 1, a safety control system 10 of this embodiment includes a distance image sensor 12 that photographs a predetermined photographing area. As an example, the distance image sensor 12 has a viewing angle or angle of view of 40° in the front, rear, left, and right directions.

距離画像センサ12は、撮影領域の距離画像を取得するためのセンサである。ただし、距離画像センサ12の撮影領域には、少なくとも判定領域が含まれる。判定領域には、危険領域が含まれる。危険領域とは、人が侵入すると危険な領域のことであり、たとえば工作機械またはロボットなどの機械の周囲に設定される領域のことである。すなわち、距離画像センサ12は、危険領域およびその周辺の領域の距離画像を取得するためのセンサである。 The distance image sensor 12 is a sensor for acquiring a distance image of a shooting area. However, the imaging area of the distance image sensor 12 includes at least the determination area. The judgment area includes a dangerous area. A dangerous area is an area that is dangerous for humans to enter, and is, for example, an area set around a machine such as a machine tool or a robot. That is, the distance image sensor 12 is a sensor for acquiring a distance image of the dangerous area and its surrounding area.

この距離画像センサ12は、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。実施例の距離画像センサ12には、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。 This distance image sensor 12 irradiates light such as infrared light or laser and captures the light reflected from the object (reflected light) with an optical sensor such as a CCD (Charge Coupled Device) sensor. The distance image sensor 12 measures the actual distance to the object by measuring the time it takes for light to return for each pixel. As the distance image sensor 12 of the embodiment, a product called Xtion (registered trademark) manufactured by ASUS (registered trademark) is adopted. In other embodiments, the distance image sensor 12 may be a Kinect (registered trademark) sensor manufactured by Microsoft (registered trademark), a three-dimensional distance image sensor D-IMager (registered trademark) manufactured by Panasonic (registered trademark), or the like. It is also possible to do so. This type of sensor is sometimes referred to as a three-dimensional distance measurement sensor, a 3D scanner, or the like.

なお、距離画像センサとしては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL‐32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。 Note that as the distance image sensor, an omnidirectional laser distance meter such as LiDAR (for example, imaging unit LiDAR (HDL-32e) (trade name) manufactured by Velodine), a stereo camera, etc. can also be used.

距離画像センサ12からの距離画像信号は、コンピュータ14に入力され、コンピュータ14では、その距離画像信号をディジタルデータとして、たとえばRAMのようなメモリ16に記憶する。詳細は後述するが、コンピュータ14は、メモリ16に記憶された距離画像データを処理した結果から危険領域への人の侵入を検出する。危険領域への人の侵入が検出された場合には、コンピュータ14は、危険領域への人の侵入が検出された旨の警告画面をディスプレイ18に表示したり、警告音声をスピーカ24から出力したり、管理者端末などの他の装置に警告メッセージを送信したりする等の警告(アラート)を発する。 The distance image signal from the distance image sensor 12 is input to the computer 14, and the computer 14 stores the distance image signal as digital data in a memory 16 such as a RAM. Although details will be described later, the computer 14 detects a person's intrusion into a dangerous area from the results of processing the distance image data stored in the memory 16. When human intrusion into the dangerous area is detected, the computer 14 displays a warning screen on the display 18 to the effect that human intrusion into the dangerous area has been detected, or outputs a warning sound from the speaker 24. issue warnings (alerts) such as sending warning messages to other devices such as administrator terminals.

メモリ16は、図2に示すように、プログラム記憶領域20およびデータ記憶領域22を含む。 Memory 16 includes a program storage area 20 and a data storage area 22, as shown in FIG.

プログラム記憶領域20には、地図生成プログラム20a、撮影方向設定プログラム20b、データ取得プログラム20c、前処理プログラム20d、塊り認識プログラム20e、侵入検出プログラム20fおよび警告プログラム20gが予め設定されている。 In the program storage area 20, a map generation program 20a, a photographing direction setting program 20b, a data acquisition program 20c, a preprocessing program 20d, a lump recognition program 20e, an intrusion detection program 20f, and a warning program 20g are preset.

地図生成プログラム20aは、撮影領域に対応する判定領域30(図4参照)に対応する3次元地図である合成地図についての合成地図データを生成して、データ記憶領域22の合成地図データ領域22cに記憶するためのプログラムである。ただし、判定領域は、危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在せず、遮蔽されない開放領域(非遮蔽領域)とを含む。 The map generation program 20a generates composite map data for a composite map that is a three-dimensional map corresponding to the determination area 30 (see FIG. 4) corresponding to the photographing area, and stores it in the composite map data area 22c of the data storage area 22. It is a program for memorizing. However, the determination area includes a dangerous area, a safe area where it is safe for people to enter, a shielded area that is blocked by an obstacle, and an open area that is free of obstacles and is not shielded (non-shielded area). include.

遮蔽領域は、障害物によって距離画像センサ12の死角となる領域のことである。障害物は、典型的には、判定領域に含まれる機械等の構造物が該当する。ただし、本願発明では、機械等を操作する人が存在する領域(機械等の操作部の正面付近の領域)も障害物として取り扱われる。侵入検出を行う際に、機械等を操作する人の体によって距離画像センサ12の死角が生じる(作業者が被る)ことがあるからである。 The shield area is an area that becomes a blind spot for the distance image sensor 12 due to an obstacle. The obstacle is typically a structure such as a machine included in the determination area. However, in the present invention, an area where a person operating a machine or the like is present (an area near the front of the operating section of the machine or the like) is also treated as an obstacle. This is because when detecting an intrusion, a blind spot of the distance image sensor 12 may occur (occupied by the worker) due to the body of the person operating the machine or the like.

また、地図生成プログラム20aは、判定領域に対応する3次元地図であって、危険領域および安全領域を含む危険領域地図についての危険領域地図データを生成して、データ記憶領域22の危険領域地図データ領域22aに記憶するためのプログラム(危険領域地図生成プログラム)でもある。 The map generation program 20a also generates dangerous area map data for a dangerous area map that is a three-dimensional map corresponding to the determination area and includes a dangerous area and a safe area, and generates dangerous area map data in the data storage area 22. It is also a program (dangerous area map generation program) for storing in the area 22a.

さらに、地図生成プログラム20aは、判定領域に対応する3次元地図であって、遮蔽領域および開放領域を含む遮蔽領域地図についての遮蔽領域地図データを生成して、データ記憶領域22の遮蔽領域地図データ領域22bに記憶するためのプログラム(遮蔽領域地図生成プログラム)でもある。詳細は後述するが、合成地図は、危険領域地図および遮蔽領域地図が合成されることによって生成される。 Furthermore, the map generation program 20a generates shielded area map data for a shielded area map that is a three-dimensional map corresponding to the determination area and includes a shielded area and an open area, and generates shielded area map data in the data storage area 22. It is also a program (blocked area map generation program) for storing in the area 22b. Although the details will be described later, the composite map is generated by combining the dangerous area map and the shielded area map.

撮影方向設定プログラム20bは、合成地図に基づいて、侵入検出用の撮影方向を設定して、侵入検出用の撮影方向についての撮影方向データを生成して、データ記憶領域22の撮影方向データ領域22dに記憶するためのプログラムである。ただし、侵入検出用の撮影方向は、合成地図に含まれる、危険領域、安全領域、遮蔽領域および開放領域の位置関係に応じて、危険領域を撮影するにあたって最も死角の少ない方向に設定される。 The photographing direction setting program 20b sets a photographing direction for intrusion detection based on the composite map, generates photographing direction data regarding the photographing direction for intrusion detection, and stores the photographing direction data area 22d in the data storage area 22. This is a program for storing data in However, the photographing direction for intrusion detection is set to the direction with the fewest blind spots when photographing the dangerous area, depending on the positional relationship of the dangerous area, safe area, shielded area, and open area included in the composite map.

データ取得プログラム20cは、侵入検出用の撮影方向から判定領域を撮影した距離画像センサ12からの距離画像信号を、判定領域の全体の距離画像についての距離画像データ(3次元距離画像データ)として取り込んで、データ記憶領域22の取得距離画像データ領域22eに記憶するためのプログラムである。 The data acquisition program 20c captures the distance image signal from the distance image sensor 12 that has photographed the determination area from the shooting direction for intrusion detection, as distance image data (three-dimensional distance image data) regarding the entire distance image of the determination area. This is a program for storing in the acquired distance image data area 22e of the data storage area 22.

前処理プログラム20dは、取得距離画像データ領域22eに記憶した距離画像データのノイズ除去などの前処理を行うためのプログラムである。 The preprocessing program 20d is a program for performing preprocessing such as noise removal on the distance image data stored in the acquired distance image data area 22e.

塊り認識プログラム20eは、前処理を終えた距離画像データから人の体の一部に対応する所定形状の塊り距離画像についての距離画像データ(塊り距離画像データ)を抽出して、データ記憶領域22の塊り距離画像データ領域22gに記憶するためのプログラムである。 The lump recognition program 20e extracts distance image data (clump distance image data) regarding a lump distance image of a predetermined shape corresponding to a part of a person's body from the preprocessed distance image data, and extracts the data. This is a program for storing in the block distance image data area 22g of the storage area 22.

侵入検出プログラム20fは、侵入検出用の撮影方向に直交する切断方向で、塊り距離画像から複数の断面画像を生成し、複数の断面画像および危険領域地図に基づいて、危険領域に人が侵入したかどうかを検出して、検出結果をデータ記憶領域22の侵入検出データ領域22hに記憶するためのプログラムである。 The intrusion detection program 20f generates a plurality of cross-sectional images from the mass distance image in a cutting direction perpendicular to the photographing direction for intrusion detection, and detects whether a person has entered the dangerous area based on the plurality of cross-sectional images and the dangerous area map. This is a program for detecting whether an intrusion has occurred and storing the detection result in the intrusion detection data area 22h of the data storage area 22.

警告プログラム20gは、危険領域に人が侵入した場合に、警告(アラート)を発するためのプログラムである。 The warning program 20g is a program for issuing a warning (alert) when a person enters a dangerous area.

データ記憶領域22は、上述の危険領域地図データ領域22a、遮蔽領域地図データ領域22b、合成地図データ領域22c、撮影方向データ領域22d、取得距離画像データ領域22e、塊り距離画像データ領域22gおよび侵入検出データ領域22hの他に、背景距離画像データ領域22fを含む。背景距離画像データ領域22fには、撮影領域に人が存在しない背景だけの、距離画像センサ12からの距離画像(背景距離画像)を記憶するための領域であり、この背景距離画像データは後述のように前処理プログラム20dによる前処理に利用される。 The data storage area 22 includes the above-mentioned dangerous area map data area 22a, shielded area map data area 22b, composite map data area 22c, photographing direction data area 22d, acquired distance image data area 22e, lump distance image data area 22g, and intrusion area. In addition to the detection data area 22h, it includes a background distance image data area 22f. The background distance image data area 22f is an area for storing a distance image (background distance image) from the distance image sensor 12 that shows only the background with no people present in the photographing area, and this background distance image data is used as described below. It is used for preprocessing by the preprocessing program 20d.

図3はこの実施例の安全制御システム10におけるコンピュータ14の撮影方向設定動作の処理内容を示すフロー図である。 FIG. 3 is a flowchart showing the processing contents of the shooting direction setting operation of the computer 14 in the safety control system 10 of this embodiment.

コンピュータ14は、撮影方向設定動作を開始すると、ステップS1で、地図生成プログラム20aに従って、判定領域30に対応する遮蔽領域地図についての遮蔽領域地図データを生成して遮蔽領域地図データ領域22bに記憶する。 When the computer 14 starts the photographing direction setting operation, in step S1, the computer 14 generates shielding area map data for the shielding area map corresponding to the determination area 30 according to the map generation program 20a, and stores it in the shielding area map data area 22b. .

判定領域30の一例が、図4および図5に示される。図4および図5に示すように、判定領域30は、人PSNが操作する機械Mを含むように設定され、機械Mの周囲には、危険領域32が設定される。危険領域32は、機械Mの形状、機能および動作等に応じて、人が侵入すると危険な領域の全部を含むように設定される。たとえば、機械Mの外形形状に沿って危険領域32が設定される。 An example of the determination area 30 is shown in FIGS. 4 and 5. As shown in FIGS. 4 and 5, the determination area 30 is set to include the machine M operated by the person PSN, and a dangerous area 32 is set around the machine M. The dangerous area 32 is set according to the shape, function, operation, etc. of the machine M to include all areas that are dangerous if a person enters. For example, the dangerous area 32 is set along the external shape of the machine M.

また、図4実施例では、機械Mの前端部には、構造物が存在しない空間部分34,36が設けられる。この空間部分34,36は、人PSNの腕の高さの辺りおよび人PSNの足元の辺りに、左右方向に延びるように形成される。また、空間部分34,36は、撮影方向によっては死角とならないため、上述の開放領域として扱われる。ただし、人PSNの腕の高さの辺りの空間部分34は、危険領域32に含まれ、人PSNの足元の辺りの空間部分36は、危険領域32に含まれない。 In the embodiment shown in FIG. 4, the front end of the machine M is provided with space portions 34 and 36 in which no structures exist. The space portions 34 and 36 are formed to extend in the left-right direction around the height of the arms of the person PSN and around the feet of the person PSN. Further, the spatial portions 34 and 36 do not become blind spots depending on the photographing direction, and therefore are treated as the above-mentioned open areas. However, a space 34 around the height of the arm of the person PSN is included in the danger area 32, and a space 36 around the feet of the person PSN is not included in the danger area 32.

また、本実施例では、遮蔽領域地図は、複数のボクセルを含むボクセル地図として表現される。遮蔽領域地図の一例が、図6に示される。図6に示すように、遮蔽領域地図は、4×4×4の64個のボクセルを含むボクセル地図として表現される。すなわち、遮蔽領域地図は、判定領域30を64個の空間に分割して、各空間をボクセルとして表現したボクセル地図である。 Further, in this embodiment, the shielding area map is expressed as a voxel map including a plurality of voxels. An example of an occluded area map is shown in FIG. As shown in FIG. 6, the occluded area map is expressed as a voxel map including 64 voxels of 4×4×4. That is, the shielding area map is a voxel map in which the determination area 30 is divided into 64 spaces and each space is expressed as a voxel.

また、後述する危険領域地図および合成地図も64個のボクセルを含むボクセル地図として表現され、遮蔽領域地図、危険領域地図および合成地図のそれぞれは、互いに対応する位置にボクセルが配置される。さらに、遮蔽領域地図、危険領域地図および合成地図のそれぞれにおいて同じ位置に配置される各ボクセルは、互いに関連付けられている。 Further, a danger area map and a composite map, which will be described later, are also expressed as voxel maps including 64 voxels, and in each of the shielding area map, danger area map, and composite map, voxels are arranged at positions corresponding to each other. Furthermore, voxels arranged at the same position in each of the shielded area map, the dangerous area map, and the composite map are associated with each other.

遮蔽領域地図に含まれる各ボクセルには、遮蔽領域および開放領域のいずれかの情報が書き込まれる。ただし、遮蔽領域についての情報には、第1種類の遮蔽領域(遮蔽領域1)についての情報と、第2種類の遮蔽領域(遮蔽領域2)についての情報とが含まれる。第1種類の遮蔽領域とは、機械等を操作する人が存在する領域のことであり、第2種類の遮蔽領域とは、機械等の構造物が存在する領域のことである。 Information about either a shielded area or an open area is written in each voxel included in the shielded area map. However, the information about the shielding region includes information about the first type of shielding region (shielding region 1) and information about the second type of shielding region (shielding region 2). The first type of shielding area is an area where a person operating a machine or the like is present, and the second type of shielding area is an area where a structure such as a machine is present.

次にステップS3で、地図生成プログラム20aに従って、判定領域30に対応する危険領域地図についての危険領域地図データを生成して危険領域地図データ領域22aに記憶する。危険領域地図の一例が、図7に示される。図7に示すように、危険領域地図に含まれる各ボクセルには、安全領域および危険領域のいずれかの情報が書き込まれる。 Next, in step S3, according to the map generation program 20a, dangerous area map data for the dangerous area map corresponding to the determination area 30 is generated and stored in the dangerous area map data area 22a. An example of a danger area map is shown in FIG. As shown in FIG. 7, information about either a safe area or a dangerous area is written in each voxel included in the dangerous area map.

なお、遮蔽領域地図および危険領域地図は、予め判定領域30の実際の環境を複数の方向、たとえば3軸から撮影した距離画像に基づいて生成されても良いし、判定領域30の環境を3次元で仮想的に再現したデータに基づいて生成されても良い。 Note that the shielding area map and the dangerous area map may be generated in advance based on distance images taken of the actual environment of the determination area 30 from a plurality of directions, for example, three axes, or may be generated based on a three-dimensional image of the environment of the determination area 30. It may be generated based on data virtually reproduced in .

次にステップS5で、地図生成プログラム20aに従って、危険領域地図および遮蔽領域地図を合成した合成地図についての合成地図データを生成して合成地図データ領域22cに記憶する。合成地図の一例が、図8に示される。図8に示す合成地図は、図6に示す遮蔽領域地図と図7に示す危険領域地図とを合成して生成された地図である。 Next, in step S5, according to the map generation program 20a, composite map data regarding a composite map obtained by combining the dangerous area map and the shielded area map is generated and stored in the composite map data area 22c. An example of a composite map is shown in FIG. The composite map shown in FIG. 8 is a map generated by combining the shielded area map shown in FIG. 6 and the dangerous area map shown in FIG. 7.

図8に示すように、合成地図では、遮蔽領域地図で遮蔽領域であるボクセルは、危険領域地図において危険領域であるか安全領域であるかに関わらず、遮蔽領域として取り扱われる。これに対し、遮蔽領域地図で開放領域であるボクセルは、危険領域地図において危険領域であれば危険領域として取り扱われ、危険領域地図において安全領域であれば開放領域または安全領域として取り扱われる。 As shown in FIG. 8, in the composite map, voxels that are occluded areas on the occluded area map are treated as occluded areas, regardless of whether they are dangerous areas or safe areas on the dangerous area map. On the other hand, a voxel that is an open area on the shielded area map is treated as a dangerous area if it is a dangerous area on the dangerous area map, and is treated as an open area or a safe area if it is a safe area on the dangerous area map.

次にステップS7で、撮影方向を第1の方向に設定する。ただし、第1の方向とは、侵入検出用の撮影方向となりうる複数の方向のうち、いずれかの方向のことである。侵入検出用の撮影方向となりうる複数の方向には、たとえば、前後方向、左右方向、上下方向およびその他の任意の方向等が含まれる。 Next, in step S7, the photographing direction is set to the first direction. However, the first direction refers to any one of a plurality of directions that can be photographed directions for intrusion detection. The plurality of directions that can be photographed directions for intrusion detection include, for example, the front-rear direction, the left-right direction, the up-down direction, and other arbitrary directions.

次にステップS9で、合成地図において、撮影方向から見たときに最初に接するボクセル(基準ボクセル)から遮蔽領域を通過せず、危険領域に到達可能な数(基準ボクセルからのスコア)を算出する。 Next, in step S9, in the composite map, from the first contacting voxel (reference voxel) when viewed from the shooting direction, the number of points that can reach the dangerous area without passing through the occlusion area (score from the reference voxel) is calculated. .

たとえば、図9(A)に示すように、撮影方向が下方向(“b”の矢印の方向)である場合には、縦方向において上端に位置する16個のボクセルが撮影方向から見たときに最初に接する基準ボクセルとなる。また、撮影方向が前方向(“c”の矢印の方向)である場合には、前後方向において後端に位置する16個のボクセルが基準ボクセルとなる。また、撮影方向が右方向(“d”の矢印の方向)である場合には、左右方向において左端に位置する16個のボクセルが基準ボクセルとなる。 For example, as shown in FIG. 9(A), when the shooting direction is downward (in the direction of the arrow "b"), the 16 voxels located at the top end in the vertical direction are This is the reference voxel that is first in contact with . Furthermore, when the photographing direction is the front direction (the direction of the arrow "c"), the 16 voxels located at the rear end in the front-back direction become the reference voxels. Furthermore, when the photographing direction is rightward (direction of the arrow "d"), the 16 voxels located at the left end in the left-right direction become the reference voxels.

そして、基準ボクセルから撮影方向に向かってボクセル地図の反対側に抜けるまでの間に通過する危険領域の数をカウントする。ただし、基準ボクセルからボクセル地図の反対側に抜けるまでの間に遮蔽領域を通過する場合には、それ以降の危険領域の数はカウントしない。すなわち、遮蔽領域を通るまでに通過する危険領域の数のみをカウントする。遮蔽領域の奥側は距離画像センサ12の死角となるからである。このようにすれば、距離画像センサ12(撮影方向)から見たときに、視認可能(撮影可能)な危険領域の数をカウントすることになる。 Then, the number of dangerous areas passed through from the reference voxel to the opposite side of the voxel map in the photographing direction is counted. However, if the object passes through a shielded area from the reference voxel to the other side of the voxel map, the number of dangerous areas thereafter is not counted. That is, only the number of dangerous areas passed before passing through the shielded area is counted. This is because the far side of the shielding area becomes a blind spot for the distance image sensor 12. In this way, the number of visible (photographable) dangerous areas is counted when viewed from the distance image sensor 12 (photographing direction).

たとえば、撮影方向が下方向であって、“b”の矢印に接する基準ボクセルからボクセル地図の反対側に抜ける場合には、図9(B)に示すように、開放領域、危険領域、遮蔽領域、遮蔽領域の順に通過する。この場合、遮蔽領域を通るまでに通過した危険領域の数が1個であるので、“b”の矢印に接する基準ボクセルからのスコアは“1”となる。 For example, when the shooting direction is downward and the reference voxel touching the arrow "b" exits to the opposite side of the voxel map, as shown in FIG. 9(B), open areas, dangerous areas, and shielded areas , and the occluded areas in this order. In this case, since the number of dangerous regions passed through before passing through the shielding region is one, the score from the reference voxel touching the arrow "b" is "1".

また、撮影方向が前方向であって、“c”の矢印に接する基準ボクセルからボクセル地図の反対側に抜ける場合には、図9(C)に示すように、遮蔽領域、危険領域、危険領域、遮蔽領域の順に通過する。この場合、最初に遮蔽領域を通るので、これ以降の危険領域の数はカウントされず、“c”の矢印に接する基準ボクセルからのスコアは“0”となる。 In addition, when the shooting direction is the front direction and the voxel map exits from the reference voxel touching the arrow "c" to the opposite side of the voxel map, as shown in FIG. , and the occluded areas in this order. In this case, since the shielding area is passed through first, the number of dangerous areas after this is not counted, and the score from the reference voxel touching the arrow "c" is "0".

さらに、撮影方向が左方向であって、“d”の矢印に接する基準ボクセルからボクセル地図の反対側に抜ける場合には、図9(D)に示すように、危険領域、危険領域、危険領域、危険領域の順に通過する。この場合、遮蔽領域を通ることが無いので、通過した危険領域の数(4個)がそのままカウントされる。したがって、“d”の矢印に接する基準ボクセルからのスコアは“4”となる。 Furthermore, when the shooting direction is to the left and the voxel map exits from the reference voxel touching the arrow "d" to the opposite side of the voxel map, as shown in FIG. 9(D), a dangerous area, a dangerous area, a dangerous area , pass through the danger area in that order. In this case, since the shielded area is not passed through, the number of dangerous areas (4) passed through is counted as is. Therefore, the score from the reference voxel touching the arrow "d" is "4".

以上のような手順で、撮影方向から見たときに最初に接する全ての基準ボクセルからのスコアを算出し、全ての基準ボクセルからのスコアを合計して、その撮影方向についての合計スコアとする。図10は図4実施例における撮影方向についての合計スコアを示す図解図である。図10(A)および図10(B)に示すように、図4実施例では、前方向から(撮影方向が後方向)および後方向から(撮影方向が前方向)の合計スコアは、“0”であり、図10(C)に示すように、上方向から(撮影方向が下方向)の合計スコアは、“4”であり、図10(D)に示すように、右方向から(撮影方向が左方向)の合計スコアは、“8”である。 With the above procedure, scores from all the reference voxels that first come into contact when viewed from the shooting direction are calculated, and the scores from all the reference voxels are summed up to obtain the total score for that shooting direction. FIG. 10 is an illustrative diagram showing the total score for the photographing direction in the example of FIG. As shown in FIGS. 10(A) and 10(B), in the example shown in FIG. ”, as shown in FIG. 10(C), the total score from the top (the shooting direction is downward) is “4”, and as shown in FIG. 10(D), the total score from the right direction (the shooting direction is downward). (direction is leftward), the total score is "8".

次にステップS11で、撮影方向についての合計スコアを、撮影方向に関連づけてスコアリストに登録して、ステップS13に進む。なお、スコアリストは、侵入検出用の撮影方向となりうる複数の方向の各々の合計スコアを記録するためのリストである。このスコアリストは、撮影方向データ領域22dに記憶される。 Next, in step S11, the total score for the photographing direction is registered in the score list in association with the photographing direction, and the process proceeds to step S13. Note that the score list is a list for recording the total score of each of a plurality of directions that can be photographed directions for intrusion detection. This score list is stored in the photographing direction data area 22d.

次にステップS13で、侵入検出用の撮影方向となりうる他の方向があるかどうかを判断する。ここでは、侵入検出用の撮影方向となりうる全ての方向の合計スコアがスコアリストに記録されたかどうかを判断する。ステップS13で“YES”であれば、つまり、他の撮影方向があると判断した場合には、ステップS15で、撮影方向を侵入検出用の撮影方向となりうる他の方向に変更して、ステップS9に戻る。 Next, in step S13, it is determined whether there are any other directions that can be photographed directions for intrusion detection. Here, it is determined whether the total score of all possible photographing directions for intrusion detection has been recorded in the score list. If "YES" in step S13, that is, if it is determined that there is another photographing direction, the photographing direction is changed to another direction that can be the photographing direction for intrusion detection in step S15, and step S9 Return to

一方、ステップS13で“NO”であれば、つまり、侵入検出用の撮影方向となりうる他の方向が無いと判断した場合には、ステップS17で、撮影方向についての合計スコアが最も大きくなる方向を、侵入検出用の撮影方向として設定して、撮影方向設定動作を終了する。たとえば、図10に示すように、図4実施例では、右方向から見たときの合計スコア、すなわち撮影方向が左方向の合計スコアが最も大きくなるので、侵入検出用の撮影方向が左方向に設定される。 On the other hand, if "NO" in step S13, that is, if it is determined that there is no other direction that can be the shooting direction for intrusion detection, then in step S17, the direction with the largest total score for the shooting directions is determined. , the photographing direction is set as the photographing direction for intrusion detection, and the photographing direction setting operation is completed. For example, as shown in FIG. 10, in the embodiment of FIG. 4, the total score when viewed from the right direction, that is, the total score when the photographing direction is to the left, is the largest, so the photographing direction for intrusion detection is set to the left. Set.

図11および図12に示した例でも、図4に示す実施例と同様に、侵入検出用の撮影方向となりうる全ての方向の合計スコアを算出し、合計スコアが最も大きくなる撮影方向を、侵入検出用の撮影方向として設定する。 In the example shown in FIGS. 11 and 12, as in the example shown in FIG. Set as the shooting direction for detection.

図11および図12に示す例では、危険領域32は、機械Mの周囲に設定される。ただし、機械Mの周囲とは、機械Mから上方向および前後左右方向において所定距離以内の領域のことである。 In the example shown in FIGS. 11 and 12, the dangerous area 32 is set around the machine M. However, the area around the machine M refers to an area within a predetermined distance from the machine M in the upward direction and in the front, rear, left and right directions.

図13は図11実施例における撮影方向についての合計スコアを示す図解図である。図13(A)に示すように、図11実施例では、前方向から(撮影方向が後方向)の合計スコアは、“12”であり、図13(B)に示すように、後方向から(撮影方向が前方向)の合計スコアは、“40”であり、図13(C)に示すように、上方向から(撮影方向が下方向)の合計スコアは、“42”であり、図13(D)に示すように、右方向から(撮影方向が左方向)の合計スコアは、“30”である。 FIG. 13 is an illustrative diagram showing the total score for the photographing direction in the example of FIG. As shown in FIG. 13(A), in the example shown in FIG. 11, the total score from the front direction (the shooting direction is the rear direction) is "12", and as shown in FIG. 13(B), the total score from the rear direction is "12". (The shooting direction is forward) The total score is "40," and as shown in FIG. 13(C), the total score from the top (the shooting direction is downward) is "42." As shown in 13(D), the total score from the right direction (photographing direction is left) is "30".

したがって、図11実施例では、上方向から見たときの合計スコア、すなわち撮影方向が下方向の合計スコアが最も大きくなるので、侵入検出用の撮影方向が下方向に設定される。 Therefore, in the embodiment of FIG. 11, since the total score when viewed from above, that is, the total score when the photographing direction is downward, is the largest, the photographing direction for intrusion detection is set downward.

以上のように、コンピュータ14は、メモリ16等と協働して、侵入検出用の撮影方向を設定する撮影方向設定装置としての機能を有する。 As described above, the computer 14 has a function as a photographing direction setting device that cooperates with the memory 16 and the like to set a photographing direction for intrusion detection.

そして、コンピュータ14は、侵入検出用の撮影方向が設定された後に、侵入検出動作のメイン処理を開始する。コンピュータ14は、侵入検出動作のメイン処理を開始すると、ステップS21で、データ取得プログラム20cに従って、距離画像センサ12からの距離画像信号を、距離画像データとして取得して取得距離画像データ領域22eに記憶する。ただし、侵入検出動作のメイン処理における距離画像センサ12の撮影方向は、侵入検出用の撮影方向である。 Then, after the photographing direction for intrusion detection is set, the computer 14 starts the main processing of the intrusion detection operation. When the computer 14 starts the main processing of the intrusion detection operation, in step S21, the computer 14 acquires the distance image signal from the distance image sensor 12 as distance image data and stores it in the acquired distance image data area 22e according to the data acquisition program 20c. do. However, the photographing direction of the distance image sensor 12 in the main processing of the intrusion detection operation is the photographing direction for intrusion detection.

次にステップS23、S25およびS27において、コンピュータ14は前処理プログラム20dに従って、距離画像のノイズ除去(ステップS23)、歪み補正(ステップS25)および背景情報除去(ステップS27)のような前処理を実行する。 Next, in steps S23, S25, and S27, the computer 14 performs preprocessing such as noise removal (step S23), distortion correction (step S25), and background information removal (step S27) on the distance image according to the preprocessing program 20d. do.

距離画像センサ12の計測値には様々なノイズが混入しているので、必要に応じて、この種のノイズを、ステップS23で、平滑化やメディアンフィルタ等のフィルタを使用して除去する。具体的には、計測値の外れ値を除去し、平滑化(粗い量子化)し、小さすぎる物体、細すぎる物体を除去し、その結果を取得距離画像データ領域22eまたは別の領域(図示せず)に記憶する。 Since various noises are mixed in the measured values of the distance image sensor 12, this type of noise is removed using a filter such as smoothing or a median filter in step S23, if necessary. Specifically, outliers in the measured values are removed, smoothed (coarse quantization), objects that are too small or too thin are removed, and the results are acquired in the range image data area 22e or another area (not shown). z).

次のステップS25では、前処理の一環として、歪み補正を行う。赤外線レーザなどの光軸をレンズ等で曲げて広範囲の計測を行う距離画像センサの場合、歪曲収差等が発生するので、必要に応じて、ステップS25でこの補正を行い、その結果を取得距離画像データ領域22eまたは別の領域(図示せず)に記憶する。 In the next step S25, distortion correction is performed as part of preprocessing. In the case of a distance image sensor such as an infrared laser that bends the optical axis with a lens or the like to measure a wide range, distortion aberration etc. occurs, so if necessary, this correction is performed in step S25 and the result is used as an acquired distance image. The information is stored in the data area 22e or another area (not shown).

ステップS27では背景情報除去処理を実行する。人や動きのあるもののみを検出するため、静的に存在するものの反射を学習し、計測値から除去する。具体的には、予め記憶している背景距離画像データをデータ記憶領域22の背景距離画像データ領域22fから読み出し、処理中の距離画像データからこの背景距離画像データを減算する。併せて、予め設定している判定領域の外側のデータを消去し、その結果(前処理が終わった距離画像データ)を取得距離画像データ領域22eに記憶する。 In step S27, background information removal processing is executed. In order to detect only people and moving objects, the system learns the reflections of static objects and removes them from the measured values. Specifically, background distance image data stored in advance is read out from the background distance image data area 22f of the data storage area 22, and this background distance image data is subtracted from the distance image data being processed. At the same time, data outside the preset determination area is erased, and the result (distance image data for which preprocessing has been completed) is stored in the acquired distance image data area 22e.

ステップS29では塊り分離処理を実行する。ここでは、前処理を終えた距離画像データから、人の形状に類似した塊りを選別して、塊りを含む所定形状の画像(塊り距離画像)として抽出し、塊り距離画像毎の距離画像データ(塊り距離画像データ)に分離する。塊り距離画像の選別方法としては、たとえば、前処理を終えた距離画像に含まれる物体を示す画像のうち、2次元の大きさで考えると、X軸Y軸がそれぞれ所定以上の長さおよびそれぞれ所定の長さ以下を有するサイズの画像であって、その画像に外接する長方形の面積とその画像の面積の比率が一定以上であり、縦横比が所定の比率以下であるなど、輪郭が人の形状に類似した画像を塊り距離画像として抽出する。したがって、人の形状に類似しない画像、たとえば矩形形状などの丸みを帯びていない形状の画像および大きすぎるまたは小さすぎる画像等については、塊り距離画像として抽出されない。すなわち、人の形状に類似しない画像は、侵入検出動作の対象から除外される。 In step S29, lump separation processing is executed. Here, from the distance image data that has been preprocessed, lumps similar to the shape of a person are selected and extracted as an image of a predetermined shape (clump distance image) including the lump, and each lump distance image is Separate into distance image data (clump distance image data). As a method for selecting clustered distance images, for example, considering the two-dimensional size of images showing objects included in distance images that have completed preprocessing, Each image has a predetermined length or less, the ratio of the area of a rectangle circumscribing the image to the area of the image is greater than a certain value, and the aspect ratio is less than or equal to a predetermined ratio. An image similar to the shape of is extracted as a cluster distance image. Therefore, images that are not similar to the shape of a person, such as images that are not rounded such as rectangular shapes, and images that are too large or too small, are not extracted as cluster distance images. That is, images that do not resemble the shape of a person are excluded from the targets of the intrusion detection operation.

なお、塊り距離画像の別の選別方法としては、距離画像に代えて、所定の高さ(たとえば1200mm)の横断面画像を生成して、横断面画像に含まれる画像のうち、輪郭が人の形状に類似した画像を塊り距離画像として抽出するようにしても良い。 Note that another method for selecting lump distance images is to generate a cross-sectional image of a predetermined height (for example, 1200 mm) instead of the distance image, and to select images included in the cross-sectional image that have human contours. An image similar to the shape of may be extracted as a cluster distance image.

次にステップS31で、接続領域に人が存在するかどうかを判断する。ここでは、距離画像センサ12の撮影方向から見たときに、危険領域から所定距離までの領域(接続領域)内に人(塊り距離画像)が存在するかどうかを判断する。たとえば、塊り距離画像の中心が、危険領域から所定距離以内かどうかを判断する。 Next, in step S31, it is determined whether a person exists in the connection area. Here, it is determined whether a person (clump distance image) exists within an area (connection area) up to a predetermined distance from the dangerous area when viewed from the shooting direction of the distance image sensor 12. For example, it is determined whether the center of the lump distance image is within a predetermined distance from the dangerous area.

ステップS31で“NO”であれば、つまり、接続領域に人が存在しないと判断した場合は、ステップS21に戻る。一方、ステップS31で“YES”であれば、つまり、接続領域に人が存在すると判断した場合は、ステップS33に進む。 If "NO" in step S31, that is, if it is determined that no person exists in the connection area, the process returns to step S21. On the other hand, if "YES" in step S31, that is, if it is determined that there is a person in the connection area, the process advances to step S33.

続くステップS33では、図15に示すサブルーチンに従って、侵入検出処理を実行する。簡単に説明すると、侵入検出処理は、塊り距離画像についての塊り距離画像データから複数の断面画像を生成して、複数の断面画像に基づいて、危険領域に人が侵入したかどうかを検出するための処理である。 In the following step S33, intrusion detection processing is executed according to the subroutine shown in FIG. Briefly, intrusion detection processing generates multiple cross-sectional images from the cluster distance image data regarding the cluster distance image, and detects whether a person has entered a dangerous area based on the multiple cross-sectional images. This is the process to do so.

コンピュータ14は、侵入検出処理を開始すると、最初のステップS41で、塊り距離画像についての塊り距離画像データから、侵入検出用の撮影方向に直交する切断方向で切断した複数の断面画像を生成する。 When the computer 14 starts the intrusion detection process, in a first step S41, the computer 14 generates a plurality of cross-sectional images cut in a cutting direction perpendicular to the photographing direction for intrusion detection from the lump distance image data regarding the lump distance image. do.

次にステップS43で、危険領域に人が侵入したかどうかを判断する。ここでは、複数の断面画像に含まれる物体を示す画像と、危険領域地図とを重ね合わせて(照合して)、複数の断面画像に含まれる物体を示す画像と、危険領域地図に含まれる危険領域とが重なるかどうかを判断する。 Next, in step S43, it is determined whether a person has entered the dangerous area. Here, images showing objects included in multiple cross-sectional images and dangerous area maps are superimposed (verified) to create an image showing objects included in multiple cross-sectional images and a dangerous area map included in the dangerous area map. Determine whether the areas overlap.

ステップS43で“NO”であれば、つまり、危険領域に人が侵入していないと判断した場合は、後述するステップS47に進む。一方、ステップS43で“YES”であれば、つまり、危険領域に人が侵入したと判断した場合は、ステップS45で、警告処理を実行して、ステップS47に進む。なお、ステップS45の警告処理では、危険領域への人の侵入が検出された旨の警告画面がディスプレイ18に表示されたり、警告音声がスピーカ24から出力されたり、管理者端末などの他の装置に警告メッセージが送信されたりする等の警告が発せられる。 If "NO" in step S43, that is, if it is determined that no person has entered the dangerous area, the process proceeds to step S47, which will be described later. On the other hand, if "YES" in step S43, that is, if it is determined that a person has entered the dangerous area, a warning process is executed in step S45, and the process proceeds to step S47. In addition, in the warning process of step S45, a warning screen to the effect that a person has been detected to have entered the dangerous area may be displayed on the display 18, a warning sound may be output from the speaker 24, or other devices such as an administrator terminal may be displayed. A warning will be issued, such as a warning message being sent.

続いて、ステップS47では、侵入検出処理を終了するかどうかを判断する。ここでは、接続領域に人が存在しなくなったかどうかを判断する。ステップS47で“NO”であれば、つまり、侵入検出処理を終了しないと判断した場合は、ステップS41に戻る。一方、ステップS47で“YES”であれば、つまり、侵入検出処理を終了すると判断した場合は、侵入検出動作のメイン処理にリターンする。 Subsequently, in step S47, it is determined whether or not to end the intrusion detection process. Here, it is determined whether there is no longer a person in the connection area. If "NO" in step S47, that is, if it is determined that the intrusion detection process is not to be completed, the process returns to step S41. On the other hand, if "YES" in step S47, that is, if it is determined that the intrusion detection process is to be ended, the process returns to the main process of the intrusion detection operation.

以上のように、コンピュータ14は、距離画像センサ12およびメモリ16等と協働して、危険領域に人が侵入したかどうかを検出する侵入検出装置としての機能も有する。 As described above, the computer 14 also has the function of an intrusion detection device that works with the distance image sensor 12, the memory 16, and the like to detect whether or not a person has entered a dangerous area.

このように、本実施例によれば、侵入検出用の撮影方向に直交する切断方向で切断した複数の断面画像を生成し、複数の断面画像に基づいて、危険領域に人が侵入したかどうかを検出する。ただし、侵入検出用の撮影方向は、3次元地図である合成地図に含まれる、危険領域、安全領域、遮蔽領域および開放領域の位置関係に応じて、危険領域を撮影するにあたって最も死角の少ない方向に設定される。このようにすれば、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。 As described above, according to the present embodiment, a plurality of cross-sectional images are generated by cutting in a cutting direction perpendicular to the photographing direction for intrusion detection, and it is determined whether a person has entered a dangerous area based on the plurality of cross-sectional images. Detect. However, the shooting direction for intrusion detection is determined in accordance with the positional relationship of the dangerous area, safe area, shielded area, and open area included in the composite map, which is a three-dimensional map. is set to In this way, it is possible to detect the intrusion of a person into a dangerous area by simple distance image processing.

また、本実施例によれば、3次元地図は、複数のボクセルを含むボクセル地図として表現され、各ボクセルには、危険領域、安全領域、遮蔽領域および開放領域のそれぞれが書き込まれる。このようにすれば、侵入検出用の撮影方向を適切に設定することができる。 Further, according to this embodiment, the three-dimensional map is expressed as a voxel map including a plurality of voxels, and each voxel is written with a dangerous area, a safe area, a shielded area, and an open area. In this way, the photographing direction for intrusion detection can be appropriately set.

さらに、本実施例によれば、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数に対応するスコアをカウントし、当該スコアが大きい方向を、撮影方向として設定する。このようにすれば、侵入検出用の撮影方向を適切に設定することができる。 Furthermore, according to this embodiment, in each of a plurality of directions for each voxel included in the three-dimensional map, a score corresponding to the number of people who can reach the dangerous area without passing through the shielding area is counted, and the score is Set the larger direction as the shooting direction. In this way, the photographing direction for intrusion detection can be appropriately set.

さらにまた、本実施例によれば、3次元地図は、危険領域および安全領域を含む危険領域地図と、遮蔽領域および開放領域を含む遮蔽領域地図とを含み、地図生成部は、危険領域地図と、遮蔽領域地図とを合成して3次元地図を生成する。このようにすれば、侵入検出用の撮影方向を適切に設定することができる。 Furthermore, according to this embodiment, the three-dimensional map includes a dangerous area map including a dangerous area and a safe area, and a shielded area map including a shielded area and an open area, and the map generation unit is configured to , and the occluded area map to generate a three-dimensional map. In this way, the photographing direction for intrusion detection can be appropriately set.

<第2実施例>
第2実施例の安全制御システム10は、複数の距離画像センサ12を含み、複数の距離画像センサ12のうち、最も死角の少ない方向から危険領域を撮影することができる侵入検出用の距離画像センサから出力される距離画像に基づいて、危険領域に人が侵入したかどうかを検出するようにした以外は第1実施例と同じである。以下、第2実施例の安全制御システム10について説明するが、第1実施例で説明した内容と重複する内容については省略することにする。
<Second example>
The safety control system 10 of the second embodiment includes a plurality of distance image sensors 12, and among the plurality of distance image sensors 12, a distance image sensor for intrusion detection that can photograph a dangerous area from a direction with the least blind spots. The second embodiment is the same as the first embodiment except that whether or not a person has entered the dangerous area is detected based on the distance image output from the first embodiment. Hereinafter, the safety control system 10 of the second embodiment will be described, but content that overlaps with the content explained in the first embodiment will be omitted.

図16に示すように、第2実施例の安全制御システム10は、複数の距離画像センサ12を含む。複数の距離画像センサ12の各々は、判定領域30を互いに異なる方向から撮影するように配置される。図16に示す例では、安全制御システム10は、4つの距離画像センサ12a~12dを含む。 As shown in FIG. 16, the safety control system 10 of the second embodiment includes a plurality of distance image sensors 12. Each of the plurality of distance image sensors 12 is arranged so as to photograph the determination area 30 from different directions. In the example shown in FIG. 16, the safety control system 10 includes four distance image sensors 12a to 12d.

図17は第2実施例の安全制御システム10におけるコンピュータ14の撮影方向設定動作の処理内容を示すフロー図である。 FIG. 17 is a flowchart showing the processing contents of the shooting direction setting operation of the computer 14 in the safety control system 10 of the second embodiment.

以下、フロー図を用いて、第2実施例における撮影方向設定動作について説明するが、第1実施例で説明した撮影方向設定動作と同じ処理については同じ参照符号を付し、重複した内容については、説明を省略するまたは簡単に説明することにする。 The photographing direction setting operation in the second embodiment will be explained below using a flowchart. Processes that are the same as the photographing direction setting operation explained in the first embodiment will be given the same reference numerals, and duplicate contents will be omitted. , the explanation will be omitted or explained simply.

コンピュータ14は、撮影方向設定動作を開始すると、ステップS5で、合成地図についての合成地図データを生成して合成地図データ領域22cに記憶し、続くステップS61で、合成地図において、複数の距離画像センサ12のうちのいずれか1つの距離画像センサ12から見たときに最初に接する基準ボクセルからのスコアを算出する。そして、全ての基準ボクセルからのスコアを合計して、その距離画像センサ12についての合計スコアとする。なお、スコアの算出方法は第1実施例と同じであるので詳しい説明を省略する。 When the computer 14 starts the photographing direction setting operation, in step S5, the computer 14 generates composite map data for the composite map and stores it in the composite map data area 22c, and in the subsequent step S61, in the composite map, multiple distance image sensors When viewed from any one of the 12 distance image sensors 12, a score is calculated from the reference voxel that comes into contact first. Then, the scores from all reference voxels are totaled to obtain the total score for that distance image sensor 12. Note that the score calculation method is the same as in the first embodiment, so detailed explanation will be omitted.

次にステップS63で、距離画像センサ12についての合計スコアを、距離画像センサ12に関連づけてスコアリストに登録して、ステップS65に進む。 Next, in step S63, the total score for the distance image sensor 12 is registered in the score list in association with the distance image sensor 12, and the process proceeds to step S65.

次にステップS65で、スコアを算出していない他の距離画像センサ12があるかどうかを判断する。ここでは、安全制御システム10に含まれる全ての距離画像センサ12についての合計スコアがスコアリストに記録されたかどうかを判断する。ステップS65で“YES”であれば、つまり、他の距離画像センサ12があると判断した場合には、ステップS67で、距離画像センサ12を変更して、ステップS61に戻る。 Next, in step S65, it is determined whether there is another distance image sensor 12 whose score has not been calculated. Here, it is determined whether the total score for all distance image sensors 12 included in the safety control system 10 has been recorded in the score list. If "YES" in step S65, that is, if it is determined that there is another distance image sensor 12, the distance image sensor 12 is changed in step S67, and the process returns to step S61.

一方、ステップS65で“NO”であれば、つまり、スコアを算出していない他の距離画像センサ12が無いと判断した場合には、ステップS69で、合計スコアが最も大きい距離画像センサ12を、侵入検出用の距離画像センサ12として設定して、撮影方向設定動作を終了する。 On the other hand, if "NO" in step S65, that is, if it is determined that there is no other distance image sensor 12 whose score has not been calculated, in step S69, the distance image sensor 12 with the largest total score is selected. It is set as the distance image sensor 12 for intrusion detection, and the photographing direction setting operation is completed.

なお、第2実施例では、侵入検出用の距離画像センサ12の撮影方向(距離画像センサ12の画角の中心)が侵入検出用の撮影方向となる。また、侵入検出動作のメイン処理では、侵入検出用の距離画像センサ12からの距離画像信号に応じて処理が行われる。ただし、侵入検出動作のメイン処理およびステップS33の侵入検出処理の内容については、第1実施例と同じであるので説明を省略する。 In the second embodiment, the photographing direction of the distance image sensor 12 for intrusion detection (the center of the angle of view of the distance image sensor 12) is the photographing direction for intrusion detection. Further, in the main processing of the intrusion detection operation, processing is performed according to a distance image signal from the distance image sensor 12 for intrusion detection. However, the main processing of the intrusion detection operation and the contents of the intrusion detection processing in step S33 are the same as in the first embodiment, and therefore the description thereof will be omitted.

このように、第2実施例によれば、複数の距離画像センサ12のうち、危険領域を撮影するにあたって最も死角の少ない方向から危険領域を撮影することができる侵入検出用の距離画像センサから出力される距離画像に基づいて、危険領域に人が侵入したかどうかを検出する。このようにすれば、第1実施例と同様に、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。 As described above, according to the second embodiment, among the plurality of distance image sensors 12, the output is output from the distance image sensor for intrusion detection, which is capable of photographing the dangerous area from the direction with the least blind spots. Based on the distance images captured, it is detected whether a person has entered a dangerous area. In this way, similar to the first embodiment, it is possible to detect a person's intrusion into a dangerous area by simple distance image processing.

また、第2実施例では、複数の距離画像センサ12が設けられるので、遮蔽領域地図、危険領域地図および合成地図が作成されていない場合には、各距離画像センサ12から撮影した距離画像に基づいて、遮蔽領域地図、危険領域地図および合成地図を作成することができる。 In addition, in the second embodiment, since a plurality of distance image sensors 12 are provided, if a shielded area map, a dangerous area map, and a composite map are not created, the distance images taken from each distance image sensor 12 are used. It is possible to create a shielded area map, a dangerous area map, and a composite map.

なお、第2実施例で挙げた距離画像センサ12の数および各距離画像センサ12の配置等はいずれも単なる一例であり、必要に応じて適宜変更可能である。 Note that the number of distance image sensors 12 and the arrangement of each distance image sensor 12 mentioned in the second embodiment are merely examples, and can be changed as necessary.

上述の実施例では、図3、図14(図15)、図17のすべてのステップを1つのコンピュータ14が実行するものとして説明したが、複数のコンピュータを用いてもよく、あるいは特定の処理をコンピュータではなくDSPのような専用処理回路で処理するようにしてもよい。 In the above embodiment, all steps in FIGS. 3, 14 (FIG. 15), and 17 are explained as being executed by one computer 14, but multiple computers may be used, or specific processing may be executed by one computer 14. The processing may be performed using a dedicated processing circuit such as a DSP instead of a computer.

なお、上で挙げた角度、距離、割合および変更幅などの具体的数値はいずれも単なる一例であり、必要に応じて適宜変更可能である。 Note that the specific numerical values such as the angle, distance, ratio, and change range listed above are merely examples, and can be changed as necessary.

また、上で挙げたボクセル地図に含まれるボクセルの数および各ボクセルの配置等はいずれも単なる一例であり、必要に応じて適宜変更可能である。 Further, the number of voxels included in the voxel map mentioned above, the arrangement of each voxel, etc. are merely examples, and can be changed as necessary.

10 …安全制御システム
12 …距離画像センサ
14 …コンピュータ
16 …メモリ
18 …ディスプレイ
10...Safety control system 12...Distance image sensor 14...Computer 16...Memory 18...Display

Claims (5)

人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成部、および
前記3次元地図に基づいて、前記危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部を備え、
前記3次元地図は、複数のボクセルを含み、各ボクセルに前記危険領域、前記安全領域、前記遮蔽領域および前記開放領域のいずれかが書き込まれていて、
前記設定部は、前記3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、前記遮蔽領域を通過せず、前記危険領域に到達可能な数をカウントして、当該数が大きい方向を、前記撮影方向として設定する、撮影方向設定装置。
A three-dimensional map of the determination area, which includes dangerous areas where it is dangerous for people to enter, safe areas where it is safe for people to enter, shielded areas that are blocked by obstacles, and open areas where there are no obstacles. a map generation unit that generates a map, and a setting unit that sets a photographing direction for intrusion detection to a direction with the least blind spots when photographing the dangerous area based on the three-dimensional map,
The three-dimensional map includes a plurality of voxels, and one of the dangerous area, the safe area, the shielded area, and the open area is written in each voxel,
The setting unit counts the number of directions in which the dangerous area can be reached without passing through the shielding area in each of a plurality of directions for each voxel included in the three-dimensional map, and determines the direction in which the number is larger. A photographing direction setting device configured to set the photographing direction.
前記地図生成部は、前記危険領域および前記安全領域を含む危険領域地図と、前記遮蔽領域および前記開放領域を含む遮蔽領域地図とを生成し、前記危険領域地図と、前記遮蔽領域地図とを合成して前記3次元地図を生成する、請求項1記載の撮影方向設定装置。 The map generation unit generates a dangerous area map including the dangerous area and the safe area, and a shielded area map including the shielded area and the open area, and synthesizes the dangerous area map and the shielded area map. The photographing direction setting device according to claim 1 , wherein the photographing direction setting device generates the three-dimensional map. 撮影方向設定装置のコンピュータを、
人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成部、および
前記3次元地図に基づいて、前記危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部として機能させ、
前記3次元地図は、複数のボクセルを含み、各ボクセルに前記危険領域、前記安全領域、前記遮蔽領域および前記開放領域のいずれかが書き込まれていて、
前記設定部は、前記3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、前記遮蔽領域を通過せず、前記危険領域に到達可能な数をカウントして、当該数が大きい方向を、前記撮影方向として設定する、撮影方向設定プログラム。
The computer of the shooting direction setting device,
A three-dimensional map of the determination area, which includes dangerous areas where it is dangerous for people to enter, safe areas where it is safe for people to enter, shielded areas that are blocked by obstacles, and open areas where there are no obstacles. a map generation unit that generates a map, and a setting unit that sets a photographing direction for intrusion detection to a direction with the least blind spots when photographing the dangerous area based on the three-dimensional map;
The three-dimensional map includes a plurality of voxels, and one of the dangerous area, the safe area, the shielded area, and the open area is written in each voxel,
The setting unit counts the number of directions in which the dangerous area can be reached without passing through the shielding area in each of a plurality of directions for each voxel included in the three-dimensional map, and determines the direction in which the number is larger. A photographing direction setting program for setting the photographing direction.
(a)人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成ステップと、
(b)前記ステップ(a)で生成された前記3次元地図に基づいて、前記危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定ステップを含み、
前記ステップ(a)では、複数のボクセルを含み、前記危険領域、前記安全領域、前記遮蔽領域および前記開放領域のいずれかを各ボクセルに書き込んだ3次元地図を生成し、
前記ステップ(b)では、前記3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、前記遮蔽領域を通過せず、前記危険領域に到達可能な数をカウントして、当該数が大きい方向を、前記撮影方向として設定する、撮影方向設定方法。
(a) 3 regarding determination areas including dangerous areas where it is dangerous for people to enter, safe areas where it is safe for people to enter, shielded areas that are blocked by obstacles, and open areas where there are no obstacles. a map generation step of generating a dimensional map;
(b) a setting step of setting a photographing direction for intrusion detection to a direction with the least blind spots when photographing the dangerous area, based on the three-dimensional map generated in step (a);
In the step (a), a three-dimensional map is generated that includes a plurality of voxels, and one of the dangerous area, the safe area, the shielded area, and the open area is written in each voxel;
In the step (b), in each of a plurality of directions for each voxel included in the three-dimensional map, the number of people who can reach the dangerous area without passing through the shielding area is counted, and the direction in which the number is larger is counted. is set as the photographing direction.
人が侵入すると危険な危険領域を含む撮影領域を互いに異なる方向から撮影して距離画像を出力する複数の距離画像センサを備える侵入検出システムの侵入検出方法であって、
(a)前記危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成ステップと、
(b)前記ステップ(a)で生成された前記3次元地図に基づいて、前記複数の距離画像センサのうち、最も死角の少ない方向から前記危険領域を撮影することができる侵入検出用の距離画像センサを設定する設定ステップと、
(c)前記ステップ(b)で設定された前記侵入検出用の距離画像センサの撮影方向に直交する切断方向で、前記侵入検出用の距離画像センサから出力される距離画像から複数の断面画像を生成する断面画像生成ステップと、
(d)前記ステップ(c)で生成された前記複数の断面画像に基づいて、前記危険領域に人が侵入したかどうかを検出する侵入検出ステップを含む、侵入検出方法。
An intrusion detection method for an intrusion detection system comprising a plurality of distance image sensors that photograph a photographing area including a dangerous area that is dangerous if a person enters from different directions and output a distance image, the method comprising:
(a) Generate a three-dimensional map of a determination area that includes the dangerous area, a safe area where it is safe for people to enter, a shielded area that is blocked by obstacles, and an open area where no obstacles exist. a map generation step;
(b) Based on the three-dimensional map generated in step (a), a distance image for intrusion detection that can photograph the dangerous area from a direction with the least blind spots among the plurality of distance image sensors. a configuration step for configuring the sensor;
(c) Cut a plurality of cross-sectional images from the range images output from the range image sensor for intrusion detection in a cutting direction perpendicular to the photographing direction of the range image sensor for intrusion detection set in step (b). a step of generating a cross-sectional image;
(d) An intrusion detection method including an intrusion detection step of detecting whether a person has entered the dangerous area based on the plurality of cross-sectional images generated in the step (c).
JP2019093787A 2019-05-17 2019-05-17 Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system Active JP7347960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019093787A JP7347960B2 (en) 2019-05-17 2019-05-17 Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019093787A JP7347960B2 (en) 2019-05-17 2019-05-17 Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system

Publications (2)

Publication Number Publication Date
JP2020188432A JP2020188432A (en) 2020-11-19
JP7347960B2 true JP7347960B2 (en) 2023-09-20

Family

ID=73222209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019093787A Active JP7347960B2 (en) 2019-05-17 2019-05-17 Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system

Country Status (1)

Country Link
JP (1) JP7347960B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129306B (en) * 2021-05-10 2022-12-02 电子科技大学成都学院 Occlusion object segmentation solving method based on deep learning
CN115082545B (en) * 2022-06-08 2023-02-07 国网黑龙江省电力有限公司大庆供电公司 Safety system applied to electric power field

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239821A (en) 2008-03-28 2009-10-15 Toa Corp Camera installation simulator program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239821A (en) 2008-03-28 2009-10-15 Toa Corp Camera installation simulator program

Also Published As

Publication number Publication date
JP2020188432A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
CN104902246B (en) Video monitoring method and device
US6297844B1 (en) Video safety curtain
JP5748920B2 (en) How to display around the vehicle
US10969762B2 (en) Configuring a hazard zone monitored by a 3D sensor
JP7347960B2 (en) Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system
JP4780455B2 (en) Video surveillance apparatus and method
US10762703B2 (en) Visualization of 3D image data
JP7073092B2 (en) Image processing equipment, image processing methods and programs
US9162621B2 (en) Parking support apparatus
JP6512793B2 (en) Imaging device, surveillance camera system, control method and program for imaging device
JP5299101B2 (en) Peripheral display device
JP2022133133A (en) Generation device, generation method, system, and program
JP2002036987A (en) Vehicle surrounding monitoring device
JP4707019B2 (en) Video surveillance apparatus and method
KR101889051B1 (en) Method for increasing reliability in monitoring systems
WO2020111053A1 (en) Monitoring device, monitoring system, monitoring method, and monitoring program
CN107531182B (en) Display device for vehicle and display method for vehicle
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
JPH1023311A (en) Image information input method and device therefor
JP7079466B2 (en) Human attribute recognition system and program
JP2018115996A (en) Distance calculation device and distance calculation method
JP5007786B2 (en) Video surveillance apparatus and method
JP2017025503A (en) Assisting display system for construction equipment operation
JPH09229648A (en) Input/output method and device for image information
JP2000115614A5 (en) Stereoscopic video system, computer-readable storage medium and storage medium for storing data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230907

R150 Certificate of patent or registration of utility model

Ref document number: 7347960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150