JP7347960B2 - Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system - Google Patents
Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system Download PDFInfo
- Publication number
- JP7347960B2 JP7347960B2 JP2019093787A JP2019093787A JP7347960B2 JP 7347960 B2 JP7347960 B2 JP 7347960B2 JP 2019093787 A JP2019093787 A JP 2019093787A JP 2019093787 A JP2019093787 A JP 2019093787A JP 7347960 B2 JP7347960 B2 JP 7347960B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- dangerous
- map
- intrusion detection
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
この発明は撮影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法に関し、特にたとえば、危険領域を含む撮影領域を撮影する距離画像センサからの距離画像に基づいて、危険領域への人の侵入を検出することができる、撮影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法に関する。 The present invention relates to a photographing direction setting device, a photographing direction setting program, a photographing direction setting method, and an intrusion detection method for an intrusion detection system. The present invention relates to a photographing direction setting device, a photographing direction setting program, a photographing direction setting method, and an intrusion detection method for an intrusion detection system that can detect human intrusion into a dangerous area.
この種の技術は、たとえば、機械等の周囲で作業する作業者の安全確保を図るために利用され得る。 This type of technology can be used, for example, to ensure the safety of workers working around machines and the like.
この発明の背景となる作業環境監視装置の一例が特許文献1に開示されている。特許文献1の作業環境監視装置は、ロボットの作業空間を撮るカメラと、カメラの撮影画像に基づいて作業空間内における移動物体の有無とその位置を検出する検出手段と、移動物体の位置がロボットに近接した位置にある場合に警告を発生する警告手段とを備えている。
An example of a working environment monitoring device that forms the background of this invention is disclosed in
また、特許文献1の作業環境監視装置では、ロボット作業空間を上方向から撮るカメラと、ロボット作業空間を横方向から撮るカメラとの2台のカメラを備え、上方向からの撮影画像と横方向からの撮影画像とを合わせることにより作業空間を3次元画像として取り扱い、移動物体の位置を3次元空間において検出し、ロボットと移動物体との接触の可能性を判断することができる。
Further, the work environment monitoring device of
以上のような構成を備えることによって、特許文献1の作業環境監視装置は、上方向からの画像だけでは接触の危険性があると判断される場合にも、横方向からの画像により高低差があるため接触しないと判断できれば、無用な警告やロボットの停止を極力減らすことができるとしている。
By having the above configuration, the work environment monitoring device of
しかしながら、特許文献1の作業環境監視装置では、移動物体の位置を3次元空間において検出するためには、2台以上のカメラを設ける必要があり、構成が複雑化し、ひいては製造コストの増大を招くという問題がある。また、作業環境によっては、2台以上のカメラを設けることが困難な場合もある。
However, in the work environment monitoring device of
それゆえに、この発明の主たる目的は、新規な、撮影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法を提供することである。 Therefore, the main object of the present invention is to provide a novel photographing direction setting device, photographing direction setting program, photographing direction setting method , and intrusion detection method for an intrusion detection system .
この発明の他の目的は、簡単な距離画像処理によって危険領域への人の侵入を検出することができる、影方向設定装置、撮影方向設定プログラム、撮影方向設定方法および侵入検出システムの侵入検出方法を提供することである。 Another object of the present invention is a shadow direction setting device, a photographing direction setting program, a photographing direction setting method , and an intrusion detection method for an intrusion detection system, which can detect a person's intrusion into a dangerous area by simple distance image processing. The goal is to provide the following .
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 In order to solve the above problems, the present invention employs the following configuration. Note that the reference numerals, supplementary explanations, etc. in parentheses indicate correspondence with the embodiments described later to aid understanding of the present invention, and do not limit the present invention in any way.
第1の発明は、人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成部、および3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部を備え、3次元地図は、複数のボクセルを含み、各ボクセルに危険領域、安全領域、遮蔽領域および開放領域のいずれかが書き込まれていて、設定部は、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する、撮影方向設定装置である。 The first invention provides a determination area that includes a dangerous area that is dangerous if a person enters, a safe area that is safe even if a person enters, a shielded area that is blocked by an obstacle, and an open area where no obstacle exists. The 3D map is equipped with a map generation unit that generates a 3D map of , a plurality of voxels, each voxel is written with either a dangerous area, a safe area, a shielded area, or an open area, and the setting unit is configured to: This is a photographing direction setting device that counts the number of devices that can reach a dangerous area without passing through a shielded area, and sets the direction with the largest number as the photographing direction.
第1の発明では、地図生成部(14、S1、S3、S5)は、人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する。設定部(14、S7~S17)は、3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する。具体的には、地図生成部は、複数のボクセルを含み、各ボクセルに危険領域、安全領域、遮蔽領域および開放領域のいずれかが書き込まれている3次元地図を生成し、設定部は、そのような3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する。 In the first invention, the map generation unit (14, S1, S3, S5) generates a dangerous area that is dangerous if a person enters, a safe area that is safe even if a person enters, and a shielded area that is blocked by an obstacle. A three-dimensional map is generated for the determination area including the area and the open area where no obstacles exist. The setting unit (14, S7 to S17) sets the photographing direction for intrusion detection to the direction with the least blind spots when photographing the dangerous area, based on the three-dimensional map. Specifically, the map generation unit generates a three-dimensional map that includes a plurality of voxels and in which each voxel is written with either a dangerous area, a safe area, a shielded area, or an open area, and the setting unit generates a three-dimensional map that includes a plurality of voxels. In each of a plurality of directions for each voxel included in such a three-dimensional map, the number of directions that can reach the dangerous area without passing through the shielded area is counted, and the direction with the largest number is set as the imaging direction.
第1の発明によれば、最も死角の少ない方向に侵入検出用の撮影方向が設定されるので、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。 According to the first invention, since the photographing direction for intrusion detection is set in the direction with the least blind spots, it is possible to detect the intrusion of a person into a dangerous area by simple distance image processing.
第2の発明は、第1の発明に従属する撮影方向設定装置であって、地図生成部は、危険領域および安全領域を含む危険領域地図と、遮蔽領域および開放領域を含む遮蔽領域地図とを生成し、危険領域地図と、遮蔽領域地図とを合成して3次元地図を生成する。 A second invention is a photographing direction setting device according to the first invention , wherein the map generation unit generates a dangerous area map including a dangerous area and a safe area, and a shielded area map including a shielded area and an open area. A three-dimensional map is generated by combining the dangerous area map and the shielded area map .
第2の発明によれば、適切に3次元地図を生成することができ、侵入検出用の撮影方向を適切に設定することができる。 According to the second invention, it is possible to appropriately generate a three-dimensional map and to appropriately set the photographing direction for intrusion detection.
第3の発明は、撮影方向設定装置のコンピュータを、人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成部、および3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部として機能させ、3次元地図は、複数のボクセルを含み、各ボクセルに危険領域、安全領域、遮蔽領域および開放領域のいずれかが書き込まれていて、設定部は、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する、撮影方向設定プログラムである。 The third aspect of the invention is to configure the computer of the photographing direction setting device into a dangerous area where it is dangerous if a person enters, a safe area where it is safe even if a person enters, a shielding area that is blocked by an obstacle, and an area where the obstacle exists. A map generation unit that generates a three-dimensional map for a determination area including an open area that is not open, and a setting that sets a photographing direction for intrusion detection to a direction with the least blind spots when photographing a dangerous area based on the three-dimensional map. The 3D map includes a plurality of voxels, and each voxel is written with either a danger area, a safe area, a shielded area, or an open area. This is an imaging direction setting program that counts the number of directions that can reach a dangerous area without passing through a shielded area in each of a plurality of directions for voxels, and sets the direction with the largest number as the imaging direction.
第4の発明は、(a)人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成ステップと、(b)ステップ(a)で生成された3次元地図に基づいて、危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定ステップを含み、ステップ(a)では、複数のボクセルを含み、危険領域、安全領域、遮蔽領域および開放領域のいずれかを各ボクセルに書き込んだ3次元地図を生成し、ステップ(b)では、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数をカウントして、当該数が大きい方向を、撮影方向として設定する、撮影方向設定方法である。 The fourth invention provides (a) a dangerous area that is dangerous if a person enters, a safe area that is safe even if a person enters, a shielded area that is blocked by an obstacle, and an open area that is free of obstacles. (b) a map generation step of generating a three-dimensional map for the included judgment area; The step (a) includes a setting step of setting a shooting direction, and step (a) generates a three-dimensional map including a plurality of voxels in which one of a dangerous area, a safe area, a shielded area, and an open area is written in each voxel; In (b), in each of the multiple directions for each voxel included in the 3D map, the number of people who can reach the dangerous area without passing through the shielding area is counted, and the direction with the largest number is set as the shooting direction. This is the shooting direction setting method.
第3および第4の発明によれば、第1の発明と同様の効果が期待できる。 According to the third and fourth inventions, the same effects as the first invention can be expected.
第5の発明は、人が侵入すると危険な危険領域を含む撮影領域を互いに異なる方向から撮影して距離画像を出力する複数の距離画像センサを備える侵入検出システムの侵入検出方法であって、(a)危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成ステップと、(b)ステップ(a)で生成された3次元地図に基づいて、複数の距離画像センサのうち、最も死角の少ない方向から危険領域を撮影することができる侵入検出用の距離画像センサを設定する設定ステップと、(c)ステップ(b)で設定された侵入検出用の距離画像センサの撮影方向に直交する切断方向で、侵入検出用の距離画像センサから出力される距離画像から複数の断面画像を生成する断面画像生成ステップと、(d)ステップ(c)で生成された複数の断面画像に基づいて、危険領域に人が侵入したかどうかを検出する侵入検出ステップを含む、侵入検出方法である。 A fifth invention is an intrusion detection method for an intrusion detection system that includes a plurality of distance image sensors that photograph a photographing area including a dangerous area that is dangerous if a person enters from different directions and outputs distance images. a) Map generation that generates a three-dimensional map of a determination area that includes a dangerous area, a safe area where it is safe for people to enter, a shielded area that is blocked by obstacles, and an open area where no obstacles exist. and (b) a distance image sensor for intrusion detection that is capable of photographing a dangerous area from a direction with the least blind spots among a plurality of distance image sensors based on the three-dimensional map generated in step (a). (c) A setting step of setting a plurality of distance images output from the distance image sensor for intrusion detection in a cutting direction perpendicular to the photographing direction of the distance image sensor for intrusion detection set in step (b). and (d) an intrusion detection step of detecting whether a person has entered the dangerous area based on the plurality of cross-sectional images generated in step (c). This is a detection method.
この発明によれば、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。 According to this invention, human intrusion into a dangerous area can be detected by simple distance image processing.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
<第1実施例>
図1を参照して、この実施例の安全制御システム10は、所定の撮影領域を撮影する距離画像センサ12を含む。距離画像センサ12は、一例として、前後左右にそれぞれ40°の視野角または画角を有する。
<First example>
Referring to FIG. 1, a
距離画像センサ12は、撮影領域の距離画像を取得するためのセンサである。ただし、距離画像センサ12の撮影領域には、少なくとも判定領域が含まれる。判定領域には、危険領域が含まれる。危険領域とは、人が侵入すると危険な領域のことであり、たとえば工作機械またはロボットなどの機械の周囲に設定される領域のことである。すなわち、距離画像センサ12は、危険領域およびその周辺の領域の距離画像を取得するためのセンサである。
The
この距離画像センサ12は、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。実施例の距離画像センサ12には、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。
This
なお、距離画像センサとしては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL‐32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。 Note that as the distance image sensor, an omnidirectional laser distance meter such as LiDAR (for example, imaging unit LiDAR (HDL-32e) (trade name) manufactured by Velodine), a stereo camera, etc. can also be used.
距離画像センサ12からの距離画像信号は、コンピュータ14に入力され、コンピュータ14では、その距離画像信号をディジタルデータとして、たとえばRAMのようなメモリ16に記憶する。詳細は後述するが、コンピュータ14は、メモリ16に記憶された距離画像データを処理した結果から危険領域への人の侵入を検出する。危険領域への人の侵入が検出された場合には、コンピュータ14は、危険領域への人の侵入が検出された旨の警告画面をディスプレイ18に表示したり、警告音声をスピーカ24から出力したり、管理者端末などの他の装置に警告メッセージを送信したりする等の警告(アラート)を発する。
The distance image signal from the
メモリ16は、図2に示すように、プログラム記憶領域20およびデータ記憶領域22を含む。
プログラム記憶領域20には、地図生成プログラム20a、撮影方向設定プログラム20b、データ取得プログラム20c、前処理プログラム20d、塊り認識プログラム20e、侵入検出プログラム20fおよび警告プログラム20gが予め設定されている。
In the
地図生成プログラム20aは、撮影領域に対応する判定領域30(図4参照)に対応する3次元地図である合成地図についての合成地図データを生成して、データ記憶領域22の合成地図データ領域22cに記憶するためのプログラムである。ただし、判定領域は、危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在せず、遮蔽されない開放領域(非遮蔽領域)とを含む。
The
遮蔽領域は、障害物によって距離画像センサ12の死角となる領域のことである。障害物は、典型的には、判定領域に含まれる機械等の構造物が該当する。ただし、本願発明では、機械等を操作する人が存在する領域(機械等の操作部の正面付近の領域)も障害物として取り扱われる。侵入検出を行う際に、機械等を操作する人の体によって距離画像センサ12の死角が生じる(作業者が被る)ことがあるからである。
The shield area is an area that becomes a blind spot for the
また、地図生成プログラム20aは、判定領域に対応する3次元地図であって、危険領域および安全領域を含む危険領域地図についての危険領域地図データを生成して、データ記憶領域22の危険領域地図データ領域22aに記憶するためのプログラム(危険領域地図生成プログラム)でもある。
The
さらに、地図生成プログラム20aは、判定領域に対応する3次元地図であって、遮蔽領域および開放領域を含む遮蔽領域地図についての遮蔽領域地図データを生成して、データ記憶領域22の遮蔽領域地図データ領域22bに記憶するためのプログラム(遮蔽領域地図生成プログラム)でもある。詳細は後述するが、合成地図は、危険領域地図および遮蔽領域地図が合成されることによって生成される。
Furthermore, the
撮影方向設定プログラム20bは、合成地図に基づいて、侵入検出用の撮影方向を設定して、侵入検出用の撮影方向についての撮影方向データを生成して、データ記憶領域22の撮影方向データ領域22dに記憶するためのプログラムである。ただし、侵入検出用の撮影方向は、合成地図に含まれる、危険領域、安全領域、遮蔽領域および開放領域の位置関係に応じて、危険領域を撮影するにあたって最も死角の少ない方向に設定される。
The photographing
データ取得プログラム20cは、侵入検出用の撮影方向から判定領域を撮影した距離画像センサ12からの距離画像信号を、判定領域の全体の距離画像についての距離画像データ(3次元距離画像データ)として取り込んで、データ記憶領域22の取得距離画像データ領域22eに記憶するためのプログラムである。
The
前処理プログラム20dは、取得距離画像データ領域22eに記憶した距離画像データのノイズ除去などの前処理を行うためのプログラムである。
The
塊り認識プログラム20eは、前処理を終えた距離画像データから人の体の一部に対応する所定形状の塊り距離画像についての距離画像データ(塊り距離画像データ)を抽出して、データ記憶領域22の塊り距離画像データ領域22gに記憶するためのプログラムである。
The
侵入検出プログラム20fは、侵入検出用の撮影方向に直交する切断方向で、塊り距離画像から複数の断面画像を生成し、複数の断面画像および危険領域地図に基づいて、危険領域に人が侵入したかどうかを検出して、検出結果をデータ記憶領域22の侵入検出データ領域22hに記憶するためのプログラムである。
The
警告プログラム20gは、危険領域に人が侵入した場合に、警告(アラート)を発するためのプログラムである。
The
データ記憶領域22は、上述の危険領域地図データ領域22a、遮蔽領域地図データ領域22b、合成地図データ領域22c、撮影方向データ領域22d、取得距離画像データ領域22e、塊り距離画像データ領域22gおよび侵入検出データ領域22hの他に、背景距離画像データ領域22fを含む。背景距離画像データ領域22fには、撮影領域に人が存在しない背景だけの、距離画像センサ12からの距離画像(背景距離画像)を記憶するための領域であり、この背景距離画像データは後述のように前処理プログラム20dによる前処理に利用される。
The
図3はこの実施例の安全制御システム10におけるコンピュータ14の撮影方向設定動作の処理内容を示すフロー図である。
FIG. 3 is a flowchart showing the processing contents of the shooting direction setting operation of the
コンピュータ14は、撮影方向設定動作を開始すると、ステップS1で、地図生成プログラム20aに従って、判定領域30に対応する遮蔽領域地図についての遮蔽領域地図データを生成して遮蔽領域地図データ領域22bに記憶する。
When the
判定領域30の一例が、図4および図5に示される。図4および図5に示すように、判定領域30は、人PSNが操作する機械Mを含むように設定され、機械Mの周囲には、危険領域32が設定される。危険領域32は、機械Mの形状、機能および動作等に応じて、人が侵入すると危険な領域の全部を含むように設定される。たとえば、機械Mの外形形状に沿って危険領域32が設定される。
An example of the
また、図4実施例では、機械Mの前端部には、構造物が存在しない空間部分34,36が設けられる。この空間部分34,36は、人PSNの腕の高さの辺りおよび人PSNの足元の辺りに、左右方向に延びるように形成される。また、空間部分34,36は、撮影方向によっては死角とならないため、上述の開放領域として扱われる。ただし、人PSNの腕の高さの辺りの空間部分34は、危険領域32に含まれ、人PSNの足元の辺りの空間部分36は、危険領域32に含まれない。
In the embodiment shown in FIG. 4, the front end of the machine M is provided with
また、本実施例では、遮蔽領域地図は、複数のボクセルを含むボクセル地図として表現される。遮蔽領域地図の一例が、図6に示される。図6に示すように、遮蔽領域地図は、4×4×4の64個のボクセルを含むボクセル地図として表現される。すなわち、遮蔽領域地図は、判定領域30を64個の空間に分割して、各空間をボクセルとして表現したボクセル地図である。
Further, in this embodiment, the shielding area map is expressed as a voxel map including a plurality of voxels. An example of an occluded area map is shown in FIG. As shown in FIG. 6, the occluded area map is expressed as a voxel map including 64 voxels of 4×4×4. That is, the shielding area map is a voxel map in which the
また、後述する危険領域地図および合成地図も64個のボクセルを含むボクセル地図として表現され、遮蔽領域地図、危険領域地図および合成地図のそれぞれは、互いに対応する位置にボクセルが配置される。さらに、遮蔽領域地図、危険領域地図および合成地図のそれぞれにおいて同じ位置に配置される各ボクセルは、互いに関連付けられている。 Further, a danger area map and a composite map, which will be described later, are also expressed as voxel maps including 64 voxels, and in each of the shielding area map, danger area map, and composite map, voxels are arranged at positions corresponding to each other. Furthermore, voxels arranged at the same position in each of the shielded area map, the dangerous area map, and the composite map are associated with each other.
遮蔽領域地図に含まれる各ボクセルには、遮蔽領域および開放領域のいずれかの情報が書き込まれる。ただし、遮蔽領域についての情報には、第1種類の遮蔽領域(遮蔽領域1)についての情報と、第2種類の遮蔽領域(遮蔽領域2)についての情報とが含まれる。第1種類の遮蔽領域とは、機械等を操作する人が存在する領域のことであり、第2種類の遮蔽領域とは、機械等の構造物が存在する領域のことである。 Information about either a shielded area or an open area is written in each voxel included in the shielded area map. However, the information about the shielding region includes information about the first type of shielding region (shielding region 1) and information about the second type of shielding region (shielding region 2). The first type of shielding area is an area where a person operating a machine or the like is present, and the second type of shielding area is an area where a structure such as a machine is present.
次にステップS3で、地図生成プログラム20aに従って、判定領域30に対応する危険領域地図についての危険領域地図データを生成して危険領域地図データ領域22aに記憶する。危険領域地図の一例が、図7に示される。図7に示すように、危険領域地図に含まれる各ボクセルには、安全領域および危険領域のいずれかの情報が書き込まれる。
Next, in step S3, according to the
なお、遮蔽領域地図および危険領域地図は、予め判定領域30の実際の環境を複数の方向、たとえば3軸から撮影した距離画像に基づいて生成されても良いし、判定領域30の環境を3次元で仮想的に再現したデータに基づいて生成されても良い。
Note that the shielding area map and the dangerous area map may be generated in advance based on distance images taken of the actual environment of the
次にステップS5で、地図生成プログラム20aに従って、危険領域地図および遮蔽領域地図を合成した合成地図についての合成地図データを生成して合成地図データ領域22cに記憶する。合成地図の一例が、図8に示される。図8に示す合成地図は、図6に示す遮蔽領域地図と図7に示す危険領域地図とを合成して生成された地図である。
Next, in step S5, according to the
図8に示すように、合成地図では、遮蔽領域地図で遮蔽領域であるボクセルは、危険領域地図において危険領域であるか安全領域であるかに関わらず、遮蔽領域として取り扱われる。これに対し、遮蔽領域地図で開放領域であるボクセルは、危険領域地図において危険領域であれば危険領域として取り扱われ、危険領域地図において安全領域であれば開放領域または安全領域として取り扱われる。 As shown in FIG. 8, in the composite map, voxels that are occluded areas on the occluded area map are treated as occluded areas, regardless of whether they are dangerous areas or safe areas on the dangerous area map. On the other hand, a voxel that is an open area on the shielded area map is treated as a dangerous area if it is a dangerous area on the dangerous area map, and is treated as an open area or a safe area if it is a safe area on the dangerous area map.
次にステップS7で、撮影方向を第1の方向に設定する。ただし、第1の方向とは、侵入検出用の撮影方向となりうる複数の方向のうち、いずれかの方向のことである。侵入検出用の撮影方向となりうる複数の方向には、たとえば、前後方向、左右方向、上下方向およびその他の任意の方向等が含まれる。 Next, in step S7, the photographing direction is set to the first direction. However, the first direction refers to any one of a plurality of directions that can be photographed directions for intrusion detection. The plurality of directions that can be photographed directions for intrusion detection include, for example, the front-rear direction, the left-right direction, the up-down direction, and other arbitrary directions.
次にステップS9で、合成地図において、撮影方向から見たときに最初に接するボクセル(基準ボクセル)から遮蔽領域を通過せず、危険領域に到達可能な数(基準ボクセルからのスコア)を算出する。 Next, in step S9, in the composite map, from the first contacting voxel (reference voxel) when viewed from the shooting direction, the number of points that can reach the dangerous area without passing through the occlusion area (score from the reference voxel) is calculated. .
たとえば、図9(A)に示すように、撮影方向が下方向(“b”の矢印の方向)である場合には、縦方向において上端に位置する16個のボクセルが撮影方向から見たときに最初に接する基準ボクセルとなる。また、撮影方向が前方向(“c”の矢印の方向)である場合には、前後方向において後端に位置する16個のボクセルが基準ボクセルとなる。また、撮影方向が右方向(“d”の矢印の方向)である場合には、左右方向において左端に位置する16個のボクセルが基準ボクセルとなる。 For example, as shown in FIG. 9(A), when the shooting direction is downward (in the direction of the arrow "b"), the 16 voxels located at the top end in the vertical direction are This is the reference voxel that is first in contact with . Furthermore, when the photographing direction is the front direction (the direction of the arrow "c"), the 16 voxels located at the rear end in the front-back direction become the reference voxels. Furthermore, when the photographing direction is rightward (direction of the arrow "d"), the 16 voxels located at the left end in the left-right direction become the reference voxels.
そして、基準ボクセルから撮影方向に向かってボクセル地図の反対側に抜けるまでの間に通過する危険領域の数をカウントする。ただし、基準ボクセルからボクセル地図の反対側に抜けるまでの間に遮蔽領域を通過する場合には、それ以降の危険領域の数はカウントしない。すなわち、遮蔽領域を通るまでに通過する危険領域の数のみをカウントする。遮蔽領域の奥側は距離画像センサ12の死角となるからである。このようにすれば、距離画像センサ12(撮影方向)から見たときに、視認可能(撮影可能)な危険領域の数をカウントすることになる。
Then, the number of dangerous areas passed through from the reference voxel to the opposite side of the voxel map in the photographing direction is counted. However, if the object passes through a shielded area from the reference voxel to the other side of the voxel map, the number of dangerous areas thereafter is not counted. That is, only the number of dangerous areas passed before passing through the shielded area is counted. This is because the far side of the shielding area becomes a blind spot for the
たとえば、撮影方向が下方向であって、“b”の矢印に接する基準ボクセルからボクセル地図の反対側に抜ける場合には、図9(B)に示すように、開放領域、危険領域、遮蔽領域、遮蔽領域の順に通過する。この場合、遮蔽領域を通るまでに通過した危険領域の数が1個であるので、“b”の矢印に接する基準ボクセルからのスコアは“1”となる。 For example, when the shooting direction is downward and the reference voxel touching the arrow "b" exits to the opposite side of the voxel map, as shown in FIG. 9(B), open areas, dangerous areas, and shielded areas , and the occluded areas in this order. In this case, since the number of dangerous regions passed through before passing through the shielding region is one, the score from the reference voxel touching the arrow "b" is "1".
また、撮影方向が前方向であって、“c”の矢印に接する基準ボクセルからボクセル地図の反対側に抜ける場合には、図9(C)に示すように、遮蔽領域、危険領域、危険領域、遮蔽領域の順に通過する。この場合、最初に遮蔽領域を通るので、これ以降の危険領域の数はカウントされず、“c”の矢印に接する基準ボクセルからのスコアは“0”となる。 In addition, when the shooting direction is the front direction and the voxel map exits from the reference voxel touching the arrow "c" to the opposite side of the voxel map, as shown in FIG. , and the occluded areas in this order. In this case, since the shielding area is passed through first, the number of dangerous areas after this is not counted, and the score from the reference voxel touching the arrow "c" is "0".
さらに、撮影方向が左方向であって、“d”の矢印に接する基準ボクセルからボクセル地図の反対側に抜ける場合には、図9(D)に示すように、危険領域、危険領域、危険領域、危険領域の順に通過する。この場合、遮蔽領域を通ることが無いので、通過した危険領域の数(4個)がそのままカウントされる。したがって、“d”の矢印に接する基準ボクセルからのスコアは“4”となる。 Furthermore, when the shooting direction is to the left and the voxel map exits from the reference voxel touching the arrow "d" to the opposite side of the voxel map, as shown in FIG. 9(D), a dangerous area, a dangerous area, a dangerous area , pass through the danger area in that order. In this case, since the shielded area is not passed through, the number of dangerous areas (4) passed through is counted as is. Therefore, the score from the reference voxel touching the arrow "d" is "4".
以上のような手順で、撮影方向から見たときに最初に接する全ての基準ボクセルからのスコアを算出し、全ての基準ボクセルからのスコアを合計して、その撮影方向についての合計スコアとする。図10は図4実施例における撮影方向についての合計スコアを示す図解図である。図10(A)および図10(B)に示すように、図4実施例では、前方向から(撮影方向が後方向)および後方向から(撮影方向が前方向)の合計スコアは、“0”であり、図10(C)に示すように、上方向から(撮影方向が下方向)の合計スコアは、“4”であり、図10(D)に示すように、右方向から(撮影方向が左方向)の合計スコアは、“8”である。 With the above procedure, scores from all the reference voxels that first come into contact when viewed from the shooting direction are calculated, and the scores from all the reference voxels are summed up to obtain the total score for that shooting direction. FIG. 10 is an illustrative diagram showing the total score for the photographing direction in the example of FIG. As shown in FIGS. 10(A) and 10(B), in the example shown in FIG. ”, as shown in FIG. 10(C), the total score from the top (the shooting direction is downward) is “4”, and as shown in FIG. 10(D), the total score from the right direction (the shooting direction is downward). (direction is leftward), the total score is "8".
次にステップS11で、撮影方向についての合計スコアを、撮影方向に関連づけてスコアリストに登録して、ステップS13に進む。なお、スコアリストは、侵入検出用の撮影方向となりうる複数の方向の各々の合計スコアを記録するためのリストである。このスコアリストは、撮影方向データ領域22dに記憶される。
Next, in step S11, the total score for the photographing direction is registered in the score list in association with the photographing direction, and the process proceeds to step S13. Note that the score list is a list for recording the total score of each of a plurality of directions that can be photographed directions for intrusion detection. This score list is stored in the photographing
次にステップS13で、侵入検出用の撮影方向となりうる他の方向があるかどうかを判断する。ここでは、侵入検出用の撮影方向となりうる全ての方向の合計スコアがスコアリストに記録されたかどうかを判断する。ステップS13で“YES”であれば、つまり、他の撮影方向があると判断した場合には、ステップS15で、撮影方向を侵入検出用の撮影方向となりうる他の方向に変更して、ステップS9に戻る。 Next, in step S13, it is determined whether there are any other directions that can be photographed directions for intrusion detection. Here, it is determined whether the total score of all possible photographing directions for intrusion detection has been recorded in the score list. If "YES" in step S13, that is, if it is determined that there is another photographing direction, the photographing direction is changed to another direction that can be the photographing direction for intrusion detection in step S15, and step S9 Return to
一方、ステップS13で“NO”であれば、つまり、侵入検出用の撮影方向となりうる他の方向が無いと判断した場合には、ステップS17で、撮影方向についての合計スコアが最も大きくなる方向を、侵入検出用の撮影方向として設定して、撮影方向設定動作を終了する。たとえば、図10に示すように、図4実施例では、右方向から見たときの合計スコア、すなわち撮影方向が左方向の合計スコアが最も大きくなるので、侵入検出用の撮影方向が左方向に設定される。 On the other hand, if "NO" in step S13, that is, if it is determined that there is no other direction that can be the shooting direction for intrusion detection, then in step S17, the direction with the largest total score for the shooting directions is determined. , the photographing direction is set as the photographing direction for intrusion detection, and the photographing direction setting operation is completed. For example, as shown in FIG. 10, in the embodiment of FIG. 4, the total score when viewed from the right direction, that is, the total score when the photographing direction is to the left, is the largest, so the photographing direction for intrusion detection is set to the left. Set.
図11および図12に示した例でも、図4に示す実施例と同様に、侵入検出用の撮影方向となりうる全ての方向の合計スコアを算出し、合計スコアが最も大きくなる撮影方向を、侵入検出用の撮影方向として設定する。 In the example shown in FIGS. 11 and 12, as in the example shown in FIG. Set as the shooting direction for detection.
図11および図12に示す例では、危険領域32は、機械Mの周囲に設定される。ただし、機械Mの周囲とは、機械Mから上方向および前後左右方向において所定距離以内の領域のことである。
In the example shown in FIGS. 11 and 12, the
図13は図11実施例における撮影方向についての合計スコアを示す図解図である。図13(A)に示すように、図11実施例では、前方向から(撮影方向が後方向)の合計スコアは、“12”であり、図13(B)に示すように、後方向から(撮影方向が前方向)の合計スコアは、“40”であり、図13(C)に示すように、上方向から(撮影方向が下方向)の合計スコアは、“42”であり、図13(D)に示すように、右方向から(撮影方向が左方向)の合計スコアは、“30”である。 FIG. 13 is an illustrative diagram showing the total score for the photographing direction in the example of FIG. As shown in FIG. 13(A), in the example shown in FIG. 11, the total score from the front direction (the shooting direction is the rear direction) is "12", and as shown in FIG. 13(B), the total score from the rear direction is "12". (The shooting direction is forward) The total score is "40," and as shown in FIG. 13(C), the total score from the top (the shooting direction is downward) is "42." As shown in 13(D), the total score from the right direction (photographing direction is left) is "30".
したがって、図11実施例では、上方向から見たときの合計スコア、すなわち撮影方向が下方向の合計スコアが最も大きくなるので、侵入検出用の撮影方向が下方向に設定される。 Therefore, in the embodiment of FIG. 11, since the total score when viewed from above, that is, the total score when the photographing direction is downward, is the largest, the photographing direction for intrusion detection is set downward.
以上のように、コンピュータ14は、メモリ16等と協働して、侵入検出用の撮影方向を設定する撮影方向設定装置としての機能を有する。
As described above, the
そして、コンピュータ14は、侵入検出用の撮影方向が設定された後に、侵入検出動作のメイン処理を開始する。コンピュータ14は、侵入検出動作のメイン処理を開始すると、ステップS21で、データ取得プログラム20cに従って、距離画像センサ12からの距離画像信号を、距離画像データとして取得して取得距離画像データ領域22eに記憶する。ただし、侵入検出動作のメイン処理における距離画像センサ12の撮影方向は、侵入検出用の撮影方向である。
Then, after the photographing direction for intrusion detection is set, the
次にステップS23、S25およびS27において、コンピュータ14は前処理プログラム20dに従って、距離画像のノイズ除去(ステップS23)、歪み補正(ステップS25)および背景情報除去(ステップS27)のような前処理を実行する。
Next, in steps S23, S25, and S27, the
距離画像センサ12の計測値には様々なノイズが混入しているので、必要に応じて、この種のノイズを、ステップS23で、平滑化やメディアンフィルタ等のフィルタを使用して除去する。具体的には、計測値の外れ値を除去し、平滑化(粗い量子化)し、小さすぎる物体、細すぎる物体を除去し、その結果を取得距離画像データ領域22eまたは別の領域(図示せず)に記憶する。
Since various noises are mixed in the measured values of the
次のステップS25では、前処理の一環として、歪み補正を行う。赤外線レーザなどの光軸をレンズ等で曲げて広範囲の計測を行う距離画像センサの場合、歪曲収差等が発生するので、必要に応じて、ステップS25でこの補正を行い、その結果を取得距離画像データ領域22eまたは別の領域(図示せず)に記憶する。
In the next step S25, distortion correction is performed as part of preprocessing. In the case of a distance image sensor such as an infrared laser that bends the optical axis with a lens or the like to measure a wide range, distortion aberration etc. occurs, so if necessary, this correction is performed in step S25 and the result is used as an acquired distance image. The information is stored in the
ステップS27では背景情報除去処理を実行する。人や動きのあるもののみを検出するため、静的に存在するものの反射を学習し、計測値から除去する。具体的には、予め記憶している背景距離画像データをデータ記憶領域22の背景距離画像データ領域22fから読み出し、処理中の距離画像データからこの背景距離画像データを減算する。併せて、予め設定している判定領域の外側のデータを消去し、その結果(前処理が終わった距離画像データ)を取得距離画像データ領域22eに記憶する。
In step S27, background information removal processing is executed. In order to detect only people and moving objects, the system learns the reflections of static objects and removes them from the measured values. Specifically, background distance image data stored in advance is read out from the background distance
ステップS29では塊り分離処理を実行する。ここでは、前処理を終えた距離画像データから、人の形状に類似した塊りを選別して、塊りを含む所定形状の画像(塊り距離画像)として抽出し、塊り距離画像毎の距離画像データ(塊り距離画像データ)に分離する。塊り距離画像の選別方法としては、たとえば、前処理を終えた距離画像に含まれる物体を示す画像のうち、2次元の大きさで考えると、X軸Y軸がそれぞれ所定以上の長さおよびそれぞれ所定の長さ以下を有するサイズの画像であって、その画像に外接する長方形の面積とその画像の面積の比率が一定以上であり、縦横比が所定の比率以下であるなど、輪郭が人の形状に類似した画像を塊り距離画像として抽出する。したがって、人の形状に類似しない画像、たとえば矩形形状などの丸みを帯びていない形状の画像および大きすぎるまたは小さすぎる画像等については、塊り距離画像として抽出されない。すなわち、人の形状に類似しない画像は、侵入検出動作の対象から除外される。 In step S29, lump separation processing is executed. Here, from the distance image data that has been preprocessed, lumps similar to the shape of a person are selected and extracted as an image of a predetermined shape (clump distance image) including the lump, and each lump distance image is Separate into distance image data (clump distance image data). As a method for selecting clustered distance images, for example, considering the two-dimensional size of images showing objects included in distance images that have completed preprocessing, Each image has a predetermined length or less, the ratio of the area of a rectangle circumscribing the image to the area of the image is greater than a certain value, and the aspect ratio is less than or equal to a predetermined ratio. An image similar to the shape of is extracted as a cluster distance image. Therefore, images that are not similar to the shape of a person, such as images that are not rounded such as rectangular shapes, and images that are too large or too small, are not extracted as cluster distance images. That is, images that do not resemble the shape of a person are excluded from the targets of the intrusion detection operation.
なお、塊り距離画像の別の選別方法としては、距離画像に代えて、所定の高さ(たとえば1200mm)の横断面画像を生成して、横断面画像に含まれる画像のうち、輪郭が人の形状に類似した画像を塊り距離画像として抽出するようにしても良い。 Note that another method for selecting lump distance images is to generate a cross-sectional image of a predetermined height (for example, 1200 mm) instead of the distance image, and to select images included in the cross-sectional image that have human contours. An image similar to the shape of may be extracted as a cluster distance image.
次にステップS31で、接続領域に人が存在するかどうかを判断する。ここでは、距離画像センサ12の撮影方向から見たときに、危険領域から所定距離までの領域(接続領域)内に人(塊り距離画像)が存在するかどうかを判断する。たとえば、塊り距離画像の中心が、危険領域から所定距離以内かどうかを判断する。
Next, in step S31, it is determined whether a person exists in the connection area. Here, it is determined whether a person (clump distance image) exists within an area (connection area) up to a predetermined distance from the dangerous area when viewed from the shooting direction of the
ステップS31で“NO”であれば、つまり、接続領域に人が存在しないと判断した場合は、ステップS21に戻る。一方、ステップS31で“YES”であれば、つまり、接続領域に人が存在すると判断した場合は、ステップS33に進む。 If "NO" in step S31, that is, if it is determined that no person exists in the connection area, the process returns to step S21. On the other hand, if "YES" in step S31, that is, if it is determined that there is a person in the connection area, the process advances to step S33.
続くステップS33では、図15に示すサブルーチンに従って、侵入検出処理を実行する。簡単に説明すると、侵入検出処理は、塊り距離画像についての塊り距離画像データから複数の断面画像を生成して、複数の断面画像に基づいて、危険領域に人が侵入したかどうかを検出するための処理である。 In the following step S33, intrusion detection processing is executed according to the subroutine shown in FIG. Briefly, intrusion detection processing generates multiple cross-sectional images from the cluster distance image data regarding the cluster distance image, and detects whether a person has entered a dangerous area based on the multiple cross-sectional images. This is the process to do so.
コンピュータ14は、侵入検出処理を開始すると、最初のステップS41で、塊り距離画像についての塊り距離画像データから、侵入検出用の撮影方向に直交する切断方向で切断した複数の断面画像を生成する。
When the
次にステップS43で、危険領域に人が侵入したかどうかを判断する。ここでは、複数の断面画像に含まれる物体を示す画像と、危険領域地図とを重ね合わせて(照合して)、複数の断面画像に含まれる物体を示す画像と、危険領域地図に含まれる危険領域とが重なるかどうかを判断する。 Next, in step S43, it is determined whether a person has entered the dangerous area. Here, images showing objects included in multiple cross-sectional images and dangerous area maps are superimposed (verified) to create an image showing objects included in multiple cross-sectional images and a dangerous area map included in the dangerous area map. Determine whether the areas overlap.
ステップS43で“NO”であれば、つまり、危険領域に人が侵入していないと判断した場合は、後述するステップS47に進む。一方、ステップS43で“YES”であれば、つまり、危険領域に人が侵入したと判断した場合は、ステップS45で、警告処理を実行して、ステップS47に進む。なお、ステップS45の警告処理では、危険領域への人の侵入が検出された旨の警告画面がディスプレイ18に表示されたり、警告音声がスピーカ24から出力されたり、管理者端末などの他の装置に警告メッセージが送信されたりする等の警告が発せられる。
If "NO" in step S43, that is, if it is determined that no person has entered the dangerous area, the process proceeds to step S47, which will be described later. On the other hand, if "YES" in step S43, that is, if it is determined that a person has entered the dangerous area, a warning process is executed in step S45, and the process proceeds to step S47. In addition, in the warning process of step S45, a warning screen to the effect that a person has been detected to have entered the dangerous area may be displayed on the
続いて、ステップS47では、侵入検出処理を終了するかどうかを判断する。ここでは、接続領域に人が存在しなくなったかどうかを判断する。ステップS47で“NO”であれば、つまり、侵入検出処理を終了しないと判断した場合は、ステップS41に戻る。一方、ステップS47で“YES”であれば、つまり、侵入検出処理を終了すると判断した場合は、侵入検出動作のメイン処理にリターンする。 Subsequently, in step S47, it is determined whether or not to end the intrusion detection process. Here, it is determined whether there is no longer a person in the connection area. If "NO" in step S47, that is, if it is determined that the intrusion detection process is not to be completed, the process returns to step S41. On the other hand, if "YES" in step S47, that is, if it is determined that the intrusion detection process is to be ended, the process returns to the main process of the intrusion detection operation.
以上のように、コンピュータ14は、距離画像センサ12およびメモリ16等と協働して、危険領域に人が侵入したかどうかを検出する侵入検出装置としての機能も有する。
As described above, the
このように、本実施例によれば、侵入検出用の撮影方向に直交する切断方向で切断した複数の断面画像を生成し、複数の断面画像に基づいて、危険領域に人が侵入したかどうかを検出する。ただし、侵入検出用の撮影方向は、3次元地図である合成地図に含まれる、危険領域、安全領域、遮蔽領域および開放領域の位置関係に応じて、危険領域を撮影するにあたって最も死角の少ない方向に設定される。このようにすれば、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。 As described above, according to the present embodiment, a plurality of cross-sectional images are generated by cutting in a cutting direction perpendicular to the photographing direction for intrusion detection, and it is determined whether a person has entered a dangerous area based on the plurality of cross-sectional images. Detect. However, the shooting direction for intrusion detection is determined in accordance with the positional relationship of the dangerous area, safe area, shielded area, and open area included in the composite map, which is a three-dimensional map. is set to In this way, it is possible to detect the intrusion of a person into a dangerous area by simple distance image processing.
また、本実施例によれば、3次元地図は、複数のボクセルを含むボクセル地図として表現され、各ボクセルには、危険領域、安全領域、遮蔽領域および開放領域のそれぞれが書き込まれる。このようにすれば、侵入検出用の撮影方向を適切に設定することができる。 Further, according to this embodiment, the three-dimensional map is expressed as a voxel map including a plurality of voxels, and each voxel is written with a dangerous area, a safe area, a shielded area, and an open area. In this way, the photographing direction for intrusion detection can be appropriately set.
さらに、本実施例によれば、3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、遮蔽領域を通過せず、危険領域に到達可能な数に対応するスコアをカウントし、当該スコアが大きい方向を、撮影方向として設定する。このようにすれば、侵入検出用の撮影方向を適切に設定することができる。 Furthermore, according to this embodiment, in each of a plurality of directions for each voxel included in the three-dimensional map, a score corresponding to the number of people who can reach the dangerous area without passing through the shielding area is counted, and the score is Set the larger direction as the shooting direction. In this way, the photographing direction for intrusion detection can be appropriately set.
さらにまた、本実施例によれば、3次元地図は、危険領域および安全領域を含む危険領域地図と、遮蔽領域および開放領域を含む遮蔽領域地図とを含み、地図生成部は、危険領域地図と、遮蔽領域地図とを合成して3次元地図を生成する。このようにすれば、侵入検出用の撮影方向を適切に設定することができる。 Furthermore, according to this embodiment, the three-dimensional map includes a dangerous area map including a dangerous area and a safe area, and a shielded area map including a shielded area and an open area, and the map generation unit is configured to , and the occluded area map to generate a three-dimensional map. In this way, the photographing direction for intrusion detection can be appropriately set.
<第2実施例>
第2実施例の安全制御システム10は、複数の距離画像センサ12を含み、複数の距離画像センサ12のうち、最も死角の少ない方向から危険領域を撮影することができる侵入検出用の距離画像センサから出力される距離画像に基づいて、危険領域に人が侵入したかどうかを検出するようにした以外は第1実施例と同じである。以下、第2実施例の安全制御システム10について説明するが、第1実施例で説明した内容と重複する内容については省略することにする。
<Second example>
The
図16に示すように、第2実施例の安全制御システム10は、複数の距離画像センサ12を含む。複数の距離画像センサ12の各々は、判定領域30を互いに異なる方向から撮影するように配置される。図16に示す例では、安全制御システム10は、4つの距離画像センサ12a~12dを含む。
As shown in FIG. 16, the
図17は第2実施例の安全制御システム10におけるコンピュータ14の撮影方向設定動作の処理内容を示すフロー図である。
FIG. 17 is a flowchart showing the processing contents of the shooting direction setting operation of the
以下、フロー図を用いて、第2実施例における撮影方向設定動作について説明するが、第1実施例で説明した撮影方向設定動作と同じ処理については同じ参照符号を付し、重複した内容については、説明を省略するまたは簡単に説明することにする。 The photographing direction setting operation in the second embodiment will be explained below using a flowchart. Processes that are the same as the photographing direction setting operation explained in the first embodiment will be given the same reference numerals, and duplicate contents will be omitted. , the explanation will be omitted or explained simply.
コンピュータ14は、撮影方向設定動作を開始すると、ステップS5で、合成地図についての合成地図データを生成して合成地図データ領域22cに記憶し、続くステップS61で、合成地図において、複数の距離画像センサ12のうちのいずれか1つの距離画像センサ12から見たときに最初に接する基準ボクセルからのスコアを算出する。そして、全ての基準ボクセルからのスコアを合計して、その距離画像センサ12についての合計スコアとする。なお、スコアの算出方法は第1実施例と同じであるので詳しい説明を省略する。
When the
次にステップS63で、距離画像センサ12についての合計スコアを、距離画像センサ12に関連づけてスコアリストに登録して、ステップS65に進む。
Next, in step S63, the total score for the
次にステップS65で、スコアを算出していない他の距離画像センサ12があるかどうかを判断する。ここでは、安全制御システム10に含まれる全ての距離画像センサ12についての合計スコアがスコアリストに記録されたかどうかを判断する。ステップS65で“YES”であれば、つまり、他の距離画像センサ12があると判断した場合には、ステップS67で、距離画像センサ12を変更して、ステップS61に戻る。
Next, in step S65, it is determined whether there is another
一方、ステップS65で“NO”であれば、つまり、スコアを算出していない他の距離画像センサ12が無いと判断した場合には、ステップS69で、合計スコアが最も大きい距離画像センサ12を、侵入検出用の距離画像センサ12として設定して、撮影方向設定動作を終了する。
On the other hand, if "NO" in step S65, that is, if it is determined that there is no other
なお、第2実施例では、侵入検出用の距離画像センサ12の撮影方向(距離画像センサ12の画角の中心)が侵入検出用の撮影方向となる。また、侵入検出動作のメイン処理では、侵入検出用の距離画像センサ12からの距離画像信号に応じて処理が行われる。ただし、侵入検出動作のメイン処理およびステップS33の侵入検出処理の内容については、第1実施例と同じであるので説明を省略する。
In the second embodiment, the photographing direction of the
このように、第2実施例によれば、複数の距離画像センサ12のうち、危険領域を撮影するにあたって最も死角の少ない方向から危険領域を撮影することができる侵入検出用の距離画像センサから出力される距離画像に基づいて、危険領域に人が侵入したかどうかを検出する。このようにすれば、第1実施例と同様に、簡単な距離画像処理によって危険領域への人の侵入を検出することができる。
As described above, according to the second embodiment, among the plurality of
また、第2実施例では、複数の距離画像センサ12が設けられるので、遮蔽領域地図、危険領域地図および合成地図が作成されていない場合には、各距離画像センサ12から撮影した距離画像に基づいて、遮蔽領域地図、危険領域地図および合成地図を作成することができる。
In addition, in the second embodiment, since a plurality of
なお、第2実施例で挙げた距離画像センサ12の数および各距離画像センサ12の配置等はいずれも単なる一例であり、必要に応じて適宜変更可能である。
Note that the number of
上述の実施例では、図3、図14(図15)、図17のすべてのステップを1つのコンピュータ14が実行するものとして説明したが、複数のコンピュータを用いてもよく、あるいは特定の処理をコンピュータではなくDSPのような専用処理回路で処理するようにしてもよい。
In the above embodiment, all steps in FIGS. 3, 14 (FIG. 15), and 17 are explained as being executed by one
なお、上で挙げた角度、距離、割合および変更幅などの具体的数値はいずれも単なる一例であり、必要に応じて適宜変更可能である。 Note that the specific numerical values such as the angle, distance, ratio, and change range listed above are merely examples, and can be changed as necessary.
また、上で挙げたボクセル地図に含まれるボクセルの数および各ボクセルの配置等はいずれも単なる一例であり、必要に応じて適宜変更可能である。 Further, the number of voxels included in the voxel map mentioned above, the arrangement of each voxel, etc. are merely examples, and can be changed as necessary.
10 …安全制御システム
12 …距離画像センサ
14 …コンピュータ
16 …メモリ
18 …ディスプレイ
10...
Claims (5)
前記3次元地図に基づいて、前記危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部を備え、
前記3次元地図は、複数のボクセルを含み、各ボクセルに前記危険領域、前記安全領域、前記遮蔽領域および前記開放領域のいずれかが書き込まれていて、
前記設定部は、前記3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、前記遮蔽領域を通過せず、前記危険領域に到達可能な数をカウントして、当該数が大きい方向を、前記撮影方向として設定する、撮影方向設定装置。 A three-dimensional map of the determination area, which includes dangerous areas where it is dangerous for people to enter, safe areas where it is safe for people to enter, shielded areas that are blocked by obstacles, and open areas where there are no obstacles. a map generation unit that generates a map, and a setting unit that sets a photographing direction for intrusion detection to a direction with the least blind spots when photographing the dangerous area based on the three-dimensional map,
The three-dimensional map includes a plurality of voxels, and one of the dangerous area, the safe area, the shielded area, and the open area is written in each voxel,
The setting unit counts the number of directions in which the dangerous area can be reached without passing through the shielding area in each of a plurality of directions for each voxel included in the three-dimensional map, and determines the direction in which the number is larger. A photographing direction setting device configured to set the photographing direction.
人が侵入すると危険な危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成部、および
前記3次元地図に基づいて、前記危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定部として機能させ、
前記3次元地図は、複数のボクセルを含み、各ボクセルに前記危険領域、前記安全領域、前記遮蔽領域および前記開放領域のいずれかが書き込まれていて、
前記設定部は、前記3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、前記遮蔽領域を通過せず、前記危険領域に到達可能な数をカウントして、当該数が大きい方向を、前記撮影方向として設定する、撮影方向設定プログラム。 The computer of the shooting direction setting device,
A three-dimensional map of the determination area, which includes dangerous areas where it is dangerous for people to enter, safe areas where it is safe for people to enter, shielded areas that are blocked by obstacles, and open areas where there are no obstacles. a map generation unit that generates a map, and a setting unit that sets a photographing direction for intrusion detection to a direction with the least blind spots when photographing the dangerous area based on the three-dimensional map;
The three-dimensional map includes a plurality of voxels, and one of the dangerous area, the safe area, the shielded area, and the open area is written in each voxel,
The setting unit counts the number of directions in which the dangerous area can be reached without passing through the shielding area in each of a plurality of directions for each voxel included in the three-dimensional map, and determines the direction in which the number is larger. A photographing direction setting program for setting the photographing direction.
(b)前記ステップ(a)で生成された前記3次元地図に基づいて、前記危険領域を撮影するにあたって最も死角の少ない方向に侵入検出用の撮影方向を設定する設定ステップを含み、
前記ステップ(a)では、複数のボクセルを含み、前記危険領域、前記安全領域、前記遮蔽領域および前記開放領域のいずれかを各ボクセルに書き込んだ3次元地図を生成し、
前記ステップ(b)では、前記3次元地図に含まれる各ボクセルに対する複数の方向のそれぞれにおいて、前記遮蔽領域を通過せず、前記危険領域に到達可能な数をカウントして、当該数が大きい方向を、前記撮影方向として設定する、撮影方向設定方法。 (a) 3 regarding determination areas including dangerous areas where it is dangerous for people to enter, safe areas where it is safe for people to enter, shielded areas that are blocked by obstacles, and open areas where there are no obstacles. a map generation step of generating a dimensional map;
(b) a setting step of setting a photographing direction for intrusion detection to a direction with the least blind spots when photographing the dangerous area, based on the three-dimensional map generated in step (a);
In the step (a), a three-dimensional map is generated that includes a plurality of voxels, and one of the dangerous area, the safe area, the shielded area, and the open area is written in each voxel;
In the step (b), in each of a plurality of directions for each voxel included in the three-dimensional map, the number of people who can reach the dangerous area without passing through the shielding area is counted, and the direction in which the number is larger is counted. is set as the photographing direction.
(a)前記危険領域と、人が侵入しても安全な安全領域と、障害物によって遮蔽される遮蔽領域と、障害物が存在しない開放領域とを含む判定領域についての3次元地図を生成する地図生成ステップと、
(b)前記ステップ(a)で生成された前記3次元地図に基づいて、前記複数の距離画像センサのうち、最も死角の少ない方向から前記危険領域を撮影することができる侵入検出用の距離画像センサを設定する設定ステップと、
(c)前記ステップ(b)で設定された前記侵入検出用の距離画像センサの撮影方向に直交する切断方向で、前記侵入検出用の距離画像センサから出力される距離画像から複数の断面画像を生成する断面画像生成ステップと、
(d)前記ステップ(c)で生成された前記複数の断面画像に基づいて、前記危険領域に人が侵入したかどうかを検出する侵入検出ステップを含む、侵入検出方法。 An intrusion detection method for an intrusion detection system comprising a plurality of distance image sensors that photograph a photographing area including a dangerous area that is dangerous if a person enters from different directions and output a distance image, the method comprising:
(a) Generate a three-dimensional map of a determination area that includes the dangerous area, a safe area where it is safe for people to enter, a shielded area that is blocked by obstacles, and an open area where no obstacles exist. a map generation step;
(b) Based on the three-dimensional map generated in step (a), a distance image for intrusion detection that can photograph the dangerous area from a direction with the least blind spots among the plurality of distance image sensors. a configuration step for configuring the sensor;
(c) Cut a plurality of cross-sectional images from the range images output from the range image sensor for intrusion detection in a cutting direction perpendicular to the photographing direction of the range image sensor for intrusion detection set in step (b). a step of generating a cross-sectional image;
(d) An intrusion detection method including an intrusion detection step of detecting whether a person has entered the dangerous area based on the plurality of cross-sectional images generated in the step (c).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019093787A JP7347960B2 (en) | 2019-05-17 | 2019-05-17 | Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019093787A JP7347960B2 (en) | 2019-05-17 | 2019-05-17 | Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020188432A JP2020188432A (en) | 2020-11-19 |
JP7347960B2 true JP7347960B2 (en) | 2023-09-20 |
Family
ID=73222209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019093787A Active JP7347960B2 (en) | 2019-05-17 | 2019-05-17 | Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7347960B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129306B (en) * | 2021-05-10 | 2022-12-02 | 电子科技大学成都学院 | Occlusion object segmentation solving method based on deep learning |
CN115082545B (en) * | 2022-06-08 | 2023-02-07 | 国网黑龙江省电力有限公司大庆供电公司 | Safety system applied to electric power field |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009239821A (en) | 2008-03-28 | 2009-10-15 | Toa Corp | Camera installation simulator program |
-
2019
- 2019-05-17 JP JP2019093787A patent/JP7347960B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009239821A (en) | 2008-03-28 | 2009-10-15 | Toa Corp | Camera installation simulator program |
Also Published As
Publication number | Publication date |
---|---|
JP2020188432A (en) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104902246B (en) | Video monitoring method and device | |
US6297844B1 (en) | Video safety curtain | |
JP5748920B2 (en) | How to display around the vehicle | |
US10969762B2 (en) | Configuring a hazard zone monitored by a 3D sensor | |
JP7347960B2 (en) | Shooting direction setting device, shooting direction setting program, shooting direction setting method, and intrusion detection method of intrusion detection system | |
JP4780455B2 (en) | Video surveillance apparatus and method | |
US10762703B2 (en) | Visualization of 3D image data | |
JP7073092B2 (en) | Image processing equipment, image processing methods and programs | |
US9162621B2 (en) | Parking support apparatus | |
JP6512793B2 (en) | Imaging device, surveillance camera system, control method and program for imaging device | |
JP5299101B2 (en) | Peripheral display device | |
JP2022133133A (en) | Generation device, generation method, system, and program | |
JP2002036987A (en) | Vehicle surrounding monitoring device | |
JP4707019B2 (en) | Video surveillance apparatus and method | |
KR101889051B1 (en) | Method for increasing reliability in monitoring systems | |
WO2020111053A1 (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
CN107531182B (en) | Display device for vehicle and display method for vehicle | |
JP2020088840A (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
JPH1023311A (en) | Image information input method and device therefor | |
JP7079466B2 (en) | Human attribute recognition system and program | |
JP2018115996A (en) | Distance calculation device and distance calculation method | |
JP5007786B2 (en) | Video surveillance apparatus and method | |
JP2017025503A (en) | Assisting display system for construction equipment operation | |
JPH09229648A (en) | Input/output method and device for image information | |
JP2000115614A5 (en) | Stereoscopic video system, computer-readable storage medium and storage medium for storing data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7347960 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |