JP6660228B2 - 物体検出センサ - Google Patents
物体検出センサ Download PDFInfo
- Publication number
- JP6660228B2 JP6660228B2 JP2016071765A JP2016071765A JP6660228B2 JP 6660228 B2 JP6660228 B2 JP 6660228B2 JP 2016071765 A JP2016071765 A JP 2016071765A JP 2016071765 A JP2016071765 A JP 2016071765A JP 6660228 B2 JP6660228 B2 JP 6660228B2
- Authority
- JP
- Japan
- Prior art keywords
- segment
- vehicle
- detection sensor
- segments
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 172
- 238000005259 measurement Methods 0.000 claims description 128
- 238000012544 monitoring process Methods 0.000 description 64
- 238000000605 extraction Methods 0.000 description 44
- 238000000034 method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 33
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 24
- 230000008569 process Effects 0.000 description 22
- 230000008859 change Effects 0.000 description 18
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000005856 abnormality Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000000903 blocking effect Effects 0.000 description 5
- 230000010355 oscillation Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 102100036848 C-C motif chemokine 20 Human genes 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Description
警戒領域の一端から他端までを測定周期おきに走査して、前記警戒領域における各方向の測定点までの距離を示す測距データを生成する検知部と、
前記測距データに基づいて、近接する測定点をセグメントとしてグループ化するグループ化手段と、
所定時点における測定周期の測距データから得られたセグメントと、当該所定時点と同時又は当該所定時点よりも過去の測距データから得られたセグメントとを選択し、前記選択した2つのセグメントの各端部への走査角度の差が第1の閾値以下であるか否かを判定する第1の走査角度判定部と、
前記第1の走査角度判定部にて前記走査角度の差が前記第1の閾値以下であると判定されると、前記選択した2つのセグメントの一方が他方を遮蔽していると推定する遮蔽推定部と、
を備えることを特徴としている。
前記セグメントが特定の対象であるか否かを判定する対象判定部と、
前記選択した2つのセグメントのうち前記検知部により近い位置にあるセグメントの他方の端部と前記所定時点よりも過去の測距データから前記特定の対象と判定したセグメントの端部との走査角度の差が第2の閾値以下であるか否かを判定する第2の走査角度判定部と、
を備え、
前記遮蔽推定部は、前記第1の走査角度判定部にて前記第1の閾値以下と判定され、かつ、前記第2の走査角度判定部にて前記第2の閾値以下であると判定されると、前記特定の対象が遮蔽されていると推定し、
当該推定がなされると、前記選択した2つのセグメントのうち前記検知部からより遠い位置にあるセグメントが前記所定時点のセグメントであれば前記特定の対象と判定したセグメントと同一物体としてトラッキングする同一物体判定部を備える。
前記同一物体判定部は、同一物体の候補として複数のセグメントを抽出した場合、当該セグメントのうち大きさが最大のセグメントを同一物体であると判定する。
前記第2の閾値は前記第1の閾値より大きい値である。
前記特定の対象は車両である。
本実施形態では、監視区域内で侵入物体等(例えば不審車両や不審者等)の異常を検知し、異常を検知した位置へ飛行ロボットを飛行させて、監視区域の目的箇所の撮影等を行う監視システムに本発明に係る物体検出センサを用いた例として説明する。
図1に示すように、本実施形態の監視システム1は、物体検出センサ2、ロボポート3、飛行ロボット4、飛行制御装置5、監視センタ6によって構築される。監視システム1では、図1に示すように、監視区域E内で発生した異常(例えば監視区域E内へ侵入してきた不審な車両Mなど)を物体検出センサ2が検知すると、異常を検知したことが物体検出センサ2から飛行制御装置5に通報される。飛行制御装置5は、物体検出センサ2から異常検知の通報があると、ロボポート3を介して飛行ロボット4に飛行指示を与える。飛行ロボット4は、飛行制御装置5からの飛行指示に従って監視区域Eへ向かって飛行し、監視区域Eの異常発生箇所の周辺に設定された目的箇所(例えば不審な車両M等の目標物を含む周辺領域)を撮影する。監視センタ6は、飛行ロボット4から飛行制御装置5を介して送信される撮影画像をモニタに表示し、監視区域Eの監視を行う。以下、監視システム1を構築する各部の構成について説明する。
次に、図2に示す機能ブロック図を参照して物体検出センサ2の構成等を説明する。
物体検出センサ2は、警戒領域Sにおける検出対象にレーザ光が照射されるように、監視建物3の屋外壁面に水平または一定の俯角を設定されて設置される。本実施形態における物体検出センサ2は、人物及び車両Mを検出対象としていることから、壁面における設置高さは警戒領域Sに侵入した人物及び車両Mにレーザ光を照射できる高さに設置される。また、物体検出センサ2は、飛行制御装置5から電源供給を受けて作動する。
測距データ生成部225は、所定の周期間隔(例えば60msec)にて検知部22の1回の走査が終了する毎に測距データを生成して制御部24に出力する。
この警戒領域情報は、物体検出センサ2の設置時や監視区域の警備プランニング変更時などに、設定端末や図示しない操作部などから検知部22による走査面上の範囲を指定されて入力される。そして、入力された警戒領域Sの範囲は、検知部22で走査を行う所定の角度間隔(例えば0.25°)ごとに、検知部22からの角度(方向)と距離値が対応付けられて角度(方向)と距離のテーブルとして記憶部23に記憶される。本実施形態では、図1に模式的に示すように、物体検出センサ2を中心とした略扇形状に警戒領域Sが設定されている。
なお、警戒領域情報は、これに限らず警戒領域Sの範囲を示す情報と物体検出センサ2との位置関係が識別可能に記憶されていればよく、例えば、物体検出センサ2を原点として相対的な位置関係を示す二次元座標にて設定され記憶していてもよい。
このように、飛行制御装置5の警備開始信号にあわせて検知部22を駆動させることで連続稼働による駆動部品の破損を防止することが可能となる。
なお、これに限らず、基準データ生成部242は、検知部22による走査が開始された後、所定回数(例えば5分間の間に行われる走査)の測距データにおいて走査角度ごとに距離値の頻度を求め、最も頻度が高い距離値を当該走査角度の基準値として採用し、基準データを生成してもよい。
また、監視制御部243は、車両トラッキング及び通常トラッキングにおいて、前回と今回の測定周期でのセグメントの対応付けが行われた場合、トラッキング情報に、その対応付けがなされた前回の測定周期のセグメントのIDについて、現在周期で検出されたセグメントの位置と大きさが、現在までの各周期における位置と大きさと対応付けて記憶される。
監視制御部243は、車両Mと判定したセグメントについて、そのセグメントのIDに対応付けて車両の識別情報を付加する。なお、車両Mでないと判定したセグメントについてはそのセグメントのIDに対応付けて人物の識別情報を付加する。
次に、図3及び図4の模式図を用いて、前述した車両トラッキングについて更に詳細に説明する。
図3(a)は、本実施形態の監視システム1において、物体検出センサ2が停止車両Mを検知した状況を示しており、同図(b)は、当該停止車両Mから乗車していた人物が降車してきた状況を示している。
次の判断では、前記2つのセグメントG1,G3のうち物体検出センサ2に近い位置にあるセグメントG3の他方の端部(図中右側の端部)と、前回の測距データから特定の対象である車両Mと判定された一点鎖線で示すセグメントGXの端部との走査角度の差が、第2の閾値以下であるか否かを判定する (第2の走査角度判定部)。これが第2の閾値以下である場合には、物体検出センサ2に近いセグメントG3が車両Mの手前にあって車両Mを遮っているために、車両Mの一部が左側の直線状のセグメントG1として現れていると見なし、左側の直線状のセグメントG1を候補抽出処理2による候補とする (遮蔽推定部)。なお、このように、2つのセグメントにおいて一方が他方を隠すような位置関係を遮蔽関係と称する。また、端部とはセグメントを構成する測定点のうち最も走査角度が小さい又は大きい測定点を意味する。そして、所定距離D2は、遮蔽関係を推定する上で明らかに異なる物体によるセグメントと考えられる距離であって実験的に定められる値である(例えば50cm等)。さらに、第1の閾値と第2の閾値は、セグメントの端部がほぼ一致していることを判断するための閾値で、例えば1°から2°の間の値とすることができる。
以上のように構成された監視システム1について、図面を参照してその動作を説明する。ここでは、主として物体検出センサ2に関する動作について説明する。図5は、物体検出センサ2の監視制御処理を示すフローチャートであり、図6は、物体検出センサ2の監視制御処理におけるトラッキング処理を示すフローチャートであり、図7は、物体検出センサ2のトラッキング処理における車両トラッキング処理を示すフローチャートである。
駆動制御部241は、電源がONとなり所定の初期設定がなされると動作を開始し、飛行制御装置5から警備開始信号を受信するまで待ち受けを行う。警備開始信号を受信すると(ステップST1−Yes)、検知部22に駆動信号を出力し、検知部22の駆動を開始させる(ステップST2)。駆動信号の入力を受け検知部22が警戒領域Sの走査を開始して測距データが出力されると(ステップST3−Yes)、基準データ生成部242は、この初回の走査による測距データに基づき基準データを生成して記憶部23に記憶する(ステップST4)。
図6において、監視制御部243は、現在周期にて取得された測距データと基準データを読み出し(ステップST31)、角度成分(方向)ごとに、現在の測距データで検出された距離値と基準データに記憶された距離値との差分計算を行う(ステップST32)。
図7に示す車両トラッキング処理の手順は、ステップST51からステップST53までの前記候補抽出処理1と、ステップST54からステップST58までの前記候補抽出処理2とによって概ね構成され、先に説明した第1の走査角度判定部、第2の走査角度判定部、遮蔽推定部、同一物体判定部等の構成を備えた監視制御部243が以下のような手順で行う。
監視制御部243は、選択した前回の周期で車両Mと判定されたセグメントGXから距離D1以内の範囲AにあるセグメントG1〜G3を抽出する(ステップST51)。次に、当該範囲A内にあるセグメントG1〜G3のうち、最大のセグメントG2を、前記候補抽出処理1による今回の車両候補と特定する(ステップST52)。そして、車両候補としたセグメントG2以外のセグメントG1,G3をトラッキング非判定対象とする(ステップST53)
監視制御部243は、警戒領域S内の走査範囲の一端から、所定距離D2以上離れている2つのセグメントを順次選択する(ステップST54)。次に、選択した2つのセグメントG1,G3の各端部への走査角度の差が第1の閾値以下である場合には(ステップST54−Yes)、選択した2つのセグメントG1,G3のうち物体検出センサ2に近い位置にあるセグメントG3の他方の端部と、前回車両Mと判定されたセグメントGXの端部との走査角度の差が、第2の閾値以下である場合には(ステップST56−Yes)、今回検出された奥側のセグメントG1を、前記候補抽出処理2による今回の車両候補と特定する(ステップST57)。なお、候補抽出処理1のステップST53でトラッキング非判定対象になったセグメントについては、候補抽出処理2のステップST57における今回の車両候補対象とはしない。
また、ステップST54においては現在時点のセグメントを2つ選択する例を説明したが、現在時点のセグメントと過去時点の(所定数前の測定周期の)セグメントとを選択するようにしてもよい。過去時点のセグメントをどの程度遡って使用するかについては、トラッキングする対象が移動物体か静止物体か、また移動物体の場合はその移動速度を考慮して適宜定めればよい。さらに、ステップST56においては前回のセグメントを用いて比較する例を示したが、必ずしも前回のセグメントである必要なく、その他の過去時点の(所定数前の測定周期の)セグメントを用いてもよい。過去時点のセグメントをどの程度遡って使用するかについては上記と同様に考えればよい。
2物体検出センサ
21通信部
22検知部
221レーザ発振部
222走査鏡
223走査制御部
224反射光検出部
225測距データ生成部
23記憶部
24制御部
241駆動制御部
242基準データ生成部
243監視制御部
3ロボポート
4飛行ロボット
5飛行制御装置
6監視センタ
E監視区域
S警戒領域
M車両
Claims (5)
- 警戒領域の一端から他端までを測定周期おきに走査して、前記警戒領域における各方向の測定点までの距離を示す測距データを生成する検知部と、
前記測距データに基づいて、近接する測定点をセグメントとしてグループ化するグループ化手段と、
所定時点における測定周期の測距データから得られたセグメントと、当該所定時点と同時又は当該所定時点よりも過去の測距データから得られたセグメントとを選択し、前記選択した2つのセグメントの各端部への走査角度の差が第1の閾値以下であるか否かを判定する第1の走査角度判定部と、
前記第1の走査角度判定部にて前記走査角度の差が前記第1の閾値以下であると判定されると、前記選択した2つのセグメントの一方が他方を遮蔽していると推定する遮蔽推定部と、
を備えることを特徴とした物体検出センサ。 - 前記セグメントが特定の対象であるか否かを判定する対象判定部と、
前記選択した2つのセグメントのうち前記検知部により近い位置にあるセグメントの他方の端部と前記所定時点よりも過去の測距データから前記特定の対象と判定したセグメントの端部との走査角度の差が第2の閾値以下であるか否かを判定する第2の走査角度判定部と、
を備え、
前記遮蔽推定部は、前記第1の走査角度判定部にて前記第1の閾値以下と判定され、かつ、前記第2の走査角度判定部にて前記第2の閾値以下であると判定されると、前記特定の対象が遮蔽されていると推定し、
当該推定がなされると、前記選択した2つのセグメントのうち前記検知部からより遠い位置にあるセグメントが前記所定時点のセグメントであれば前記特定の対象と判定したセグメントと同一物体としてトラッキングする同一物体判定部を備える請求項1に記載の物体検出センサ。 - 前記同一物体判定部は、同一物体の候補として複数のセグメントを抽出した場合、当該セグメントのうち大きさが最大のセグメントを同一物体であると判定する請求項2に記載の物体検出センサ。
- 前記第2の閾値は前記第1の閾値より大きい値である請求項2又は3に記載の物体検出センサ。
- 前記特定の対象は車両である請求項2〜4のいずれか一項に記載の物体検出センサ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071765A JP6660228B2 (ja) | 2016-03-31 | 2016-03-31 | 物体検出センサ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071765A JP6660228B2 (ja) | 2016-03-31 | 2016-03-31 | 物体検出センサ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017181401A JP2017181401A (ja) | 2017-10-05 |
JP6660228B2 true JP6660228B2 (ja) | 2020-03-11 |
Family
ID=60005986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016071765A Active JP6660228B2 (ja) | 2016-03-31 | 2016-03-31 | 物体検出センサ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6660228B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6834920B2 (ja) * | 2017-11-22 | 2021-02-24 | トヨタ自動車株式会社 | 物標判別装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2678156C (en) * | 2007-02-16 | 2013-10-08 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
JP5224319B2 (ja) * | 2007-07-23 | 2013-07-03 | 富士フイルム株式会社 | 立体撮像装置および立体撮像装置の制御方法並びにプログラム |
JP5900722B2 (ja) * | 2011-05-18 | 2016-04-06 | 北陽電機株式会社 | 走査式測距装置の信号処理装置、信号処理方法、及び走査式測距装置 |
JP5638578B2 (ja) * | 2012-08-09 | 2014-12-10 | 株式会社東芝 | 観測支援装置、観測支援方法およびプログラム |
US9111444B2 (en) * | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
JP2014115109A (ja) * | 2012-12-06 | 2014-06-26 | Canon Inc | 距離計測装置及び方法 |
JP6064674B2 (ja) * | 2013-02-28 | 2017-01-25 | 株式会社デンソー | 物体認識装置 |
JP6097150B2 (ja) * | 2013-05-24 | 2017-03-15 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2015123534A (ja) * | 2013-12-26 | 2015-07-06 | トヨタ自動車株式会社 | 載置判断方法、載置方法、載置判断装置及びロボット |
JP6342169B2 (ja) * | 2014-01-29 | 2018-06-13 | セコム株式会社 | 物体検出センサ及びプログラム |
JP6413957B2 (ja) * | 2014-12-26 | 2018-10-31 | 株式会社デンソー | ピッチング判定装置 |
JP6601613B2 (ja) * | 2015-06-08 | 2019-11-06 | 株式会社パスコ | 位置推定方法、位置推定装置及び位置推定プログラム |
JP6525148B2 (ja) * | 2015-06-09 | 2019-06-05 | 株式会社パスコ | 軌跡推定方法、軌跡推定装置及び軌跡推定プログラム |
-
2016
- 2016-03-31 JP JP2016071765A patent/JP6660228B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017181401A (ja) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200357125A1 (en) | Systems and methods for user detection, identification, and localization within a defined space | |
JP5076070B2 (ja) | 対象検出装置、対象検出方法、および対象検出プログラム | |
CN110187341B (zh) | 人体活动姿态的监测方法及系统、人体姿态监测器 | |
US20120081542A1 (en) | Obstacle detecting system and method | |
EP3298432A1 (en) | Multi-layered safety system | |
EP3372508A1 (en) | Method and system for aircraft taxi strike alerting | |
JP6694746B2 (ja) | 物体検出センサ | |
JP2012073856A (ja) | 監視用センサ | |
CN107003408B (zh) | 距离测量设备及确定距离的方法 | |
JP2008009929A (ja) | 移動ロボット | |
JP2011215775A (ja) | 物体検出センサおよび警備システム | |
JP6660228B2 (ja) | 物体検出センサ | |
JP6212400B2 (ja) | 物体検出センサ及びプログラム | |
JP5263692B2 (ja) | レーザースキャンセンサ | |
JP2012038078A (ja) | 監視用センサ | |
JP6342169B2 (ja) | 物体検出センサ及びプログラム | |
JP5027270B2 (ja) | 物体検出センサ | |
JP2008009927A (ja) | 移動ロボット | |
JP2012251900A (ja) | 残置物検出方法及び装置 | |
JP2013061187A (ja) | レーザースキャンセンサ | |
JP5431230B2 (ja) | 物体検出センサおよび警備システム | |
JP2020005121A (ja) | 監視装置 | |
KR102135369B1 (ko) | 거리 검출 장치 및 그 방법 | |
JP5484991B2 (ja) | 物体検出センサおよび警備システム | |
JP7204356B2 (ja) | 監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6660228 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |