JP2022131678A - 物体検知装置、システム、方法、及びプログラム - Google Patents

物体検知装置、システム、方法、及びプログラム Download PDF

Info

Publication number
JP2022131678A
JP2022131678A JP2021030742A JP2021030742A JP2022131678A JP 2022131678 A JP2022131678 A JP 2022131678A JP 2021030742 A JP2021030742 A JP 2021030742A JP 2021030742 A JP2021030742 A JP 2021030742A JP 2022131678 A JP2022131678 A JP 2022131678A
Authority
JP
Japan
Prior art keywords
entry
unit
mark
space
prohibited
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021030742A
Other languages
English (en)
Other versions
JP7694897B2 (ja
Inventor
教之 青木
Noriyuki Aoki
悟己 上野
Satoki Ueno
哲也 伊藤
Tetsuya Ito
真則 高岡
Masanori Takaoka
研二 河野
Kenji Kono
ゆり 安達
Yuri Adachi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2021030742A priority Critical patent/JP7694897B2/ja
Publication of JP2022131678A publication Critical patent/JP2022131678A/ja
Application granted granted Critical
Publication of JP7694897B2 publication Critical patent/JP7694897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができる物体検知装置等を提供すること。【解決手段】撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択するように構成された侵入禁止エリア指定部と、前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出するように構成された検出処理部と、を備える。【選択図】図18

Description

本発明は、物体検知装置、システム、方法、及びプログラムに関する。
作業現場において、作業員の安全管理のため、3D(dimension)カメラ(3D-LIDAR(Laser Imaging Detection and Ranging)、ToF(Time of Flight)カメラ、ステレオカメラ、3Dスキャナなど)を活用して、危険を伴うエリアにおいて、人やモノの侵入を禁止する立ち入り禁止エリア(侵入禁止スペース)を設定し、当該立ち入り禁止エリアを監視して物体の侵入を検知する技術がある(例えば、特許文献1~5参照)。
特許文献1には、検知エリアの設定をより効率良く行うことを可能とする技術として、可搬型センサユニットと、前記可搬型センサユニットから、前記可搬型センサユニットによって検出された新たなセンサ観測情報を取得する情報取得部と、前記新たなセンサ観測情報に対応する観測エリア内に新たな検知エリアを設定するエリア設定部と、前記新たな検知エリアへの動物体の侵入を検知する侵入検知部と、を備え、前記エリア設定部は、前記新たなセンサ観測情報と過去のセンサ観測情報との比較と、過去の検知エリア情報とに基づいて、前記新たな検知エリアを設定する、侵入検知装置が開示されている。特許文献1に記載の侵入検知装置では、3Dカメラで撮影可能な範囲の中に、安全管理を行いたいシーンが収まるように3Dカメラを設置し、監視したいエリアを「3D空間」として把握し、1つないしは複数の立ち入り禁止エリアを設定している。立ち入り禁止エリアを設定する際、現場を3Dカメラで撮影し、画角を調整のうえ、安全管理を行いたいシーンが3Dカメラの画角に収まるようにしたうえで、撮影されている3D点群データを参照しながら立ち入り禁止エリアを設定している。
特許文献2には、投影装置に投影させる像の簡便な指定手段を提供する技術として、所定の範囲を投影可能な投影装置と、前記投影装置の投影可能な範囲を撮影可能な撮影装置と、に接続され、前記撮影装置にて撮影された画像に基づいて、ユーザによる図形の描画操作を認識する図形認識部と、前記投影装置に対して、前記図形の描画操作に基づいた図形の投影を指示する投影制御部と、を備える投影像指定装置が開示されている。特許文献2に記載の投影像指定装置では、ユーザによる図形の描画操作として3個以上のマーカーの設置操作を行うことで監視する領域を設定している。
特許文献3には、建設機械を基準として、その付近に存在する作業者、電柱、架空線、樹木等、様々な物体の正確な位置を求めることができるようにする技術として、レーザスキャナ装置と、前記レーザスキャナ装置から前記周辺空間内に周期的に放射された光の当該周辺空間内での反射光に基づいて、前記周辺空間内のスキャン位置毎の距離データを取得する距離データ取得手段と、作業者に装着されたID発信手段からの受信電波に基づいて、前記作業者までの距離を算出する距離算出手段と、前記距離データに基づいて、前記周辺空間内の物体の位置を検出する物体位置検出手段と、前記距離算出手段により算出された距離と前記物体位置検出手段により検出された位置とに基づいて、前記作業者の位置を検出する作業者位置検出手段と、監視領域を設定する監視領域設定手段と、前記物体位置検出手段により検出された物体が前記監視領域に存在することに基づいて警報を出力する第1の警報出力手段と、前記作業者位置検出手段により検出された作業者が前記監視領域に存在することに基づいて警報を出力する第2の警報出力手段と、を有する建設機械が開示されている。特許文献3に記載の建設機械では、監視領域は、作業装置の旋回範囲に応じて動的に設定される。
特許文献4には、形状が変化する物体を認識できる技術として、所定の監視領域の3次元画像および2次元画像を取得する撮像部と、取得された3次元画像において所定範囲の画素値を有する領域を抽出する物体抽出部と、2次元画像において物体の種別に応じて予め登録された基準画像を探索する画像探索部と、画像探索部により探索される基準画像が物体抽出部により抽出された領域内に存在するか否かにより物体の種別を判定する判定部とを備える物体認識装置と、監視領域内の所定の作業領域で作業するロボットと、ロボットを制御するロボット制御部とを備え、物体認識装置が、物体が安全監視対象であると認識した場合に、物体が作業領域に侵入するのを検出し、ロボット制御部が、物体認識装置によって作業領域への物体の侵入が検出された場合にロボットを停止させるロボットシステムが開示されている。特許文献4に記載のロボットシステムでは、監視領域は、所定の位置に設置されたロボットの作業領域を含むように設定されている。
特許文献5には、人と産業用ロボットとの接触を回避する技術として、ロボットと、ロボットの周辺領域への人の侵入を検出するセンサと、ロボットおよびセンサを制御する制御装置とを備え、制御装置が、動作プログラムに基づいてロボットを制御するロボット制御部と、動作プログラムに基づいて所定時間後までのロボットの動作領域を逐次予測する動作領域予測部と、周辺領域の内、動作領域予測部により予測された動作領域を包含する領域におけるセンサの検出結果を有効に設定し、それ以外の周辺領域におけるセンサの検出結果を無効に設定する検出領域制御部とを備え、ロボット制御部が、センサによる検出結果が有効に設定された領域内において人の侵入が検出されたときにロボットの動作を制限するロボットシステムが開示されている。特許文献5に記載のロボットシステムでは、センサによって検出可能な領域は、所定の位置に設置されたロボットの周辺領域に設定されている。
特開2020-197971号公報 特開2020-113102号公報 特開2020-56169号公報 特開2019-193974号公報 特開2019-58990号公報
以下の分析は、本願発明者により与えられる。
しかしながら、特許文献1に記載の侵入検知装置では、三角コーンで囲われた立ち入り禁止エリア内部に3Dカメラを設置する必要性が有るため、1台の3Dカメラで複数の立ち入り禁止エリアを監視することができず、3Dカメラの設置位置に自由度がない。
また、鉄道における工事においては、例えば、複々線、三複線などの場合、工事計画に従い時間帯により工事対象の線路がずれていくためそれに合わせて立ち入り禁止エリアも変化していくが、特許文献1に記載の侵入検知装置では、毎回、細やかに空間を調整しながら立ち入り禁止エリア設定などのチューニング作業が必要となり、手間がかかり、すぐに安全管理のための侵入検知を稼働しにくい状況であった。このことは、マーカーの設置操作を行うことで監視する領域を設定している特許文献2に記載の投影像指定装置についても同様なことが言える。
また、工事現場における作業員の安全管理は地面に留まらず、電柱・鉄塔などの高所作業もあり、空中への立ち入り禁止エリアを設定する必要があるが、特許文献1に記載の侵入検知装置では、立ち入り禁止エリアの目印となる三角コーンを置いて空中への立ち入り禁止エリアを設定することができない。
また、特許文献1に記載の侵入検知装置では、立ち入り禁止エリアの目印となる三角コーンを置いてエリアを設定しているため、三角コーンが作業の邪魔になる可能性が有る。
さらに、特許文献3に記載の建設機械や、特許文献4、5に記載のロボットシステムでは、建設機械やロボットを中心とした予め設定された範囲での監視を行うにすぎず、新たな侵入禁止スペースを設定するように構成されていない。
本発明の主な課題は、新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができる物体検知装置、システム、方法、及びプログラムを提供することである。
第1の視点に係る物体検知装置は、撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択するように構成された侵入禁止エリア指定部と、前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出するように構成された検出処理部と、を備える。
第2の視点に係る物体検知システムは、所定空間を撮影した撮影データを出力するように構成された3次元センサと、前記第1の視点に係る物体検知装置と、を備える。
第3の視点に係る物体検知方法は、ハードウェア資源を用いて物体を検知する物体検知方法であって、撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択するステップと、前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出するステップと、を含む。
第4の視点に係るプログラムは、ハードウェア資源に物体を検知する処理を実行させるプログラムであって、撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択する処理と、前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出する処理と、を前記ハードウェア資源に実行させる。
なお、プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。また、本開示では、コンピュータプログラム製品として具現することも可能である。プログラムは、コンピュータ装置に入力装置又は外部から通信インタフェイスを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェイスを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備える。
前記第1~第4の視点によれば、新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができる。
実施形態1に係る物体検知システムの構成及び一使用態様を模式的に示したブロック図である。 実施形態1に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。 実施形態1に係る物体検知システムにおける表示画面の一例を模式的に示したイメージ図である。 実施形態1に係る物体検知システムにおける物体検知装置の前処理部で前処理した後の撮影データの一例を模式的に示したイメージ図である。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の目印認識部で線路に係る検出線を作成した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の目印認識部で侵入禁止スペース候補を自動作成した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部のスペース指定部で侵入禁止スペースを作成した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の時間管理部で作業時間23:00~1:29に係る侵入禁止スペースを選択した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の時間管理部で作業時間1:30~3:29に係る侵入禁止スペースを選択した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の目印認識部で三角コーンに係る検出線を作成して侵入禁止スペース候補を自動作成した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の目印認識部で人に係る検出線を作成して侵入禁止スペース候補を自動作成した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の目印認識部で電線に係る検出線を作成して侵入禁止スペース候補を自動作成した後の撮影データの一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の侵入禁止スペース指定部の目印認識部で三角コーンに係る検出線を作成して侵入禁止スペース候補を自動作成した後の撮影データの他の一例を模式的に示したイメージである。 実施形態1に係る物体検知システムにおける物体検知装置の動作を模式的に示したフローチャート図である。 実施形態2に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。 実施形態3に係る物体検知システムの構成を模式的に示したブロック図である。 実施形態3に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。 実施形態4に係る物体検知システムの構成を模式的に示したブロック図である。 実施形態4に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。 実施形態5に係る物体検知装置の構成を模式的に示したブロック図である。 ハードウェア資源の構成を模式的に示したブロック図である。
以下、実施形態について図面を参照しつつ説明する。なお、本出願において図面参照符号を付している場合は、それらは、専ら理解を助けるためのものであり、図示の態様に限定することを意図するものではない。また、下記の実施形態は、あくまで例示であり、本発明を限定するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インタフェイスも同様である。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備え、コンピュータ装置は、通信インタフェイスを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。
[実施形態1]
実施形態1に係る物体検知システムについて図面を用いて説明する。図1は、実施形態1に係る物体検知システムの構成及び一使用態様を模式的に示したブロック図である。図2は、実施形態1に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。
物体検知システム1は、3次元センサ300を用いて侵入禁止スペース31に存在する検知対象物体11を検知するシステムである(図1参照)。物体検知システム1では、3次元センサ300、物体検知装置200、及び携帯通信端末500がネットワーク400を介して通信可能に接続された構成となっている。物体検知システム1では、物体検知装置200が3次元センサ300で撮影された撮影データ(図2の100)に基づいて侵入禁止スペース31に存在する検知対象物体11を選択的に検知する。ここで、撮影データ100は、3次元センサ300で撮影して作成された3次元点群データである。物体検知システム1は、目印(図1では線路14)を認識して侵入禁止スペース31を作成する機能を有する。物体検知システム1は、例えば、図3に例示したように、検知した検知対象物体11をセグメント40aとともに表示する機能を有する。
3次元センサ300は、撮影スペース(図4の20)内のオブジェクト(図1の検知対象物体11、非検知対象物体12、線路14、地面等を含む)の表面をセンシングして3次元撮影するセンサである(図1参照)。3次元センサ300は、ネットワーク400を介して物体検知装置200及び携帯通信端末500と通信可能に接続されている。3次元センサ300は、撮影スペース20を撮影して撮影データ(図2の100)を作成し、作成された撮影データ100を物体検知装置200及び携帯通信端末500に向けて出力する。なお、撮影データ100は、点群(多数の点の3次元座標)で描画された点群データ(3次元点群データ)である。3次元センサ300は、検知対象物体11の検知に必要な撮影距離、画角、屋内外、日照の有無などの環境条件や顧客要望に応じて選択することができる。また、3次元センサ300には、各種メーカーから販売されている製品を用いることができる。3次元センサ300として、例えば、ステレオカメラ、ToF(Time of Flight)カメラ、3D-LIDAR(Three Dimensions - Laser Imaging Detection and Ranging)等の3次元センサを用いることができる。3次元センサ300は、物体検知装置200で作成される侵入禁止スペース31の外や工事現場のエリア外に設置される。これにより、複数の侵入禁止スペースを設定できるようになり、設置場所を変更して活用することも可能となる。3次元センサ300は、撮影スペース20を撮影できる位置に取り付け又は設置され、取り付け又は設置するのに適切な支持物(壁や柱など)がない場合には図1のように三脚301を用いて取り付け又は設置してもよい。3次元センサ300は、撮影スペース20に少なくとも1つあればよいが、撮影スペース20に複数あってもよい。また、3次元センサ300は、撮影スペース20が広大で1つのセンサで撮影することが困難な場合にも複数用いてもよい。なお、3次元センサ300が撮影スペース20に複数ある場合には、種類やメーカーが異なっていてもよい。また、3次元センサ300が撮影スペース20に複数ある場合には、各3次元センサ300で撮影された各撮影データを物体検知装置200で合成すればよい。
ここで、撮影スペース20は、侵入禁止スペース(図1の31)が設定可能なスペースであり、当該侵入禁止スペース内に侵入してきたオブジェクトを検出可能なスペースである。なお、侵入禁止スペース(図1の31)は、オブジェクトの侵入を禁止するスペースである。
ネットワーク400は、3次元センサ300と物体検知装置200と携帯通信端末500との間を通信可能に接続する有線又は無線の通信網である。ネットワーク400には、例えば、PAN(Personal Area Network)、LAN(Local Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、GAN(Global Area Network)等の通信網を用いることができる。
携帯通信端末500は、3次元センサ300及び物体検知装置200からの情報を表示することが可能な端末である(図1参照)。携帯通信端末500は、例えば、現場監督、作業員等のユーザによって使用される。携帯通信端末500には、携帯可能な通信端末が用いられ、例えば、スマートフォン、携帯電話機、タブレット端末等を用いることができる。携帯通信端末500は、ネットワーク400を介して物体検知装置200及び3次元センサ300と通信可能に接続されている。携帯通信端末500は、3次元センサ300からの撮影データ(図2の100)を受信して表示することができる。携帯通信端末500は、物体検知装置200からの結果(図2の110)及び警告情報(受信した場合)を受信して表示することができる。
物体検知装置200は、撮影データ100における所定の目印に基づいて侵入禁止スペース31を作成し、作成された侵入禁止スペース31に侵入してきた検知対象物体11を選択的に検知する装置である(図1、図2参照)。物体検知装置200は、監視者などのユーザによって使用される。物体検知装置200は、コンピュータを構成する機能部(例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び表示装置)を有する装置(コンピュータ装置)を用いることができる。物体検知装置200として、例えば、計算機、パーソナルコンピュータ、ノート型パーソナルコンピュータ、タブレット端末等のハードウェア資源を用いることができる。物体検知装置200は、時刻機能を有する。物体検知装置200は、所定のプログラム(ソフトウェア)を実行することにより、前処理部210と、侵入禁止スペース指定部220と、検出処理部230と、結果生成部240と、インタフェイス部250と、を実現する。
前処理部210は、撮影データ100に対して所定の前処理(ここでは、フォーマット変換、ノイズ除去)を行う機能部である(図2参照)。前処理部210は、センサ(図1の300)からの撮影データ100を取得する。前処理部210は、前処理された撮影データ100を侵入禁止スペース指定部220、検出処理部230、及び、インタフェイス部250の表示部252に向けて出力する。前処理部210は、フォーマット変換部211と、ノイズ除去部212と、を備える。
フォーマット変換部211は、センサ(図1の300)の種類によって異なる撮影データ100のフォーマットを、物体検知装置200において共通に使える共通フォーマットに変換する機能部である(図2参照)。フォーマット変換部211は、センサ(図1の300)からの撮影データ100を取得する。フォーマット変換部211は、共通フォーマットに変換された撮影データ100を、ノイズ除去部212に向けて出力する。
ノイズ除去部212は、撮影データ100における点群の中からノイズ(検知に不要な点群)を除去する機能部である(図2参照)。ノイズ除去部212は、フォーマット変換部211からの撮影データ100を取得する。ノイズ除去部212は、ノイズが除去された撮影データ100を侵入禁止スペース指定部220、検出処理部230、及び、インタフェイス部250の表示部252に向けて出力する。ノイズ除去方法として、例えば、平滑化処理、フィルタリング(例えば、移動平均フィルタ処理、メディアンフィルタ処理など)、外れ値除去処理(例えば、カイの二乗検定による外れ値除去処理)などが挙げられる。
侵入禁止スペース指定部220は、撮影データ100の撮影スペース(図4の20)において侵入禁止スペース(図8では31a、図9では31b)を指定する機能部である(図2参照)。侵入禁止スペース指定部220は、前処理部210からの前処理された撮影データ100を取得する。侵入禁止スペース指定部220は、撮影データ100の撮影スペース(図4の20)において、予め設定された目印に係る形態(例えば一対の平行線)に対応する目印(図5では線路14a、14b)を検出して当該目印に係る検出線(図5では22a、22b)を作成する。侵入禁止スペース指定部220は、作成された検出線(図5では22a、22b)に基づいて、予め設定されたフォームにしたがって1又は複数の侵入禁止スペース候補(図6では30a、30b)を自動作成する。侵入禁止スペース指定部220は、作成された侵入禁止スペース候補(図6では30a、30b)に係る情報を保存する。侵入禁止スペース指定部220は、インタフェイス部250の操作部251からの設定条件情報(幅、奥行き、高さ、角度、設定時間)を取得する。侵入禁止スペース指定部220は、設定条件情報(ここでは幅、奥行き、高さ、角度)に基づいて、作成された侵入禁止スペース候補(図6では30a、30b)の設定条件を指定ないし変更して侵入禁止スペース(図7では31a、31b)を作成する。侵入禁止スペース指定部220は、作成された侵入禁止スペース(図7では31a、31b)に係る情報を保存する。なお、侵入禁止スペース指定部220は、設定条件情報がない場合、作成された侵入禁止スペース候補(図6では30a、30b)をそのまま侵入禁止スペースとすることができる。侵入禁止スペース指定部220は、設定条件情報(ここでは設定時間)に基づいて、設定されている時間(作業時間)の間において、作成された侵入禁止スペース(図8では31a、図9では31b)に係る情報を検出処理部230及び結果生成部240に向けて出力する。侵入禁止スペース指定部220は、目印認識部221と、スペース指定部222と、角度指定部223と、時間管理部224と、を備える。
目印認識部221は、前処理部210からの前処理された撮影データ100に基づいて、撮影スペース(図4の20)の中から、予め設定された目印に係る形態(図5では一対の平行線等)に対応する目印(図5では線路14a、14b)を認識して侵入禁止スペース候補(図6では30a、30b)を自動作成する機能部である(図2参照)。目印認識部221は、撮影データ100に基づいて、撮影スペース(図4の20)において、予め設定された目印に係る形態(例えば、図4に関しては一対の平行線)に対応する目印(図5では線路14a、14b)を検出して、当該目印に係る検出線(図5では22a、22b)を作成する。目印認識部221は、作成された検出線(図5では22a、22b)に基づいて、予め設定されたフォームにしたがって1又は複数の侵入禁止スペース候補(図6では30a、30b)を自動作成する。これにより、侵入禁止スペースの設定の煩雑さを解消させることができ、侵入禁止スペースのカスタムを容易に行えるようになる。目印認識部221は、作成された侵入禁止スペース候補(図6では30a、30b)に係る情報を保存する。目印認識部221は、作成された侵入禁止スペース候補(図6では30a、30b)に係る情報をスペース指定部222に向けて出力する。
ここで、目印として、例えば、線路(図4の14a、14b)、電線(図12の17a、17b)、通信線、車線、パイプライン、ガードレール、電柱、誘導標、スノーポール等、インフラとして存在する連続的又は断続的な構造物、表示物を用いることができる。また、目印として、例えば、三角コーン(図10の15参照)、人(図11の16参照)、ポール等、人が後発的に設置したものであってもよい。また、予め設定された目印に係る形態として、例えば、線路のような一対の平行線、電線のような懸垂線、道路の車線のような破線や連続線等、インフラとして存在する連続的又は断続的な形態(線、形状など)を用いることができる。また、予め設定された目印に係る形態として、例えば、三角錐面、人型面、円柱面などの目印の特徴的な形態を用いることができる。予め設定されたフォームとして、例えば、作成した検出線(図5では22a、22b、図10の23、図11の24、図12の25a、25b)を包含した所定又は任意の幅、奥行き、高さの箱状(直方体)のスペース、あるいは、作成した検出線から所定距離で離れた所定又は任意の幅、奥行き、高さの箱状(直方体)のスペースとすることができる。なお、予め設定されたフォームは、箱状(直方体)のスペースに限るものではなく、円柱状、多角柱状、球状などでもよい。
スペース指定部222は、撮影データ100において侵入禁止スペース(図7の31a、31b)を指定する機能部である(図2参照)。スペース指定部222は、前処理部210からの撮影データ100を取得し、目印認識部221からの侵入禁止スペース候補(図6では30a、30b)に係る情報を取得し、インタフェイス部250の操作部251からの設定条件情報(幅、奥行き、高さ、角度、設定時間)を取得する。スペース指定部222は、取得した設定条件情報のうち幅、奥行き、高さを保存する。スペース指定部222は、取得した設定条件情報のうち幅、奥行き、高さに基づいて、取得した侵入禁止スペース候補(図6では30a、30b)の設定条件を指定して侵入禁止スペース(図7では31a、31b)を作成する。なお、スペース指定部222は、設定条件情報がない場合、新たに侵入禁止スペースを作成しないで、取得した侵入禁止スペース候補(図6では30a、30b)をそのまま侵入禁止スペースとすることができる。スペース指定部222は、作成された侵入禁止スペース(図7では31a、31b)に係る情報を保存する。スペース指定部222は、作成された侵入禁止スペース(図7では31a、31b)に係る情報を角度指定部223に向けて出力する。
角度指定部223は、撮影データ100に対する侵入禁止スペース(図7では31a、31b)の角度を指定する機能部である(図2参照)。角度指定部223は、前処理部210からの撮影データ100を取得し、スペース指定部222からの侵入禁止スペース(図7では31a、31b)に係る情報を取得し、インタフェイス部250の操作部251からの設定条件情報(幅、奥行き、高さ、角度、設定時間)を取得する。角度指定部223は、取得された設定条件情報のうち角度を保存する。角度指定部223は、取得された設定条件情報のうち角度に基づいて、撮影データ100の点群(又は、スペース指定部222からの侵入禁止スペース31a、31b)を回転させることで侵入禁止スペース31の角度を変更する。なお、角度指定部223は、設定条件情報がない場合、侵入禁止スペース31の角度を変更しないで、スペース指定部222から取得した侵入禁止スペース(図7では31a、31b)のままの角度とすることができる。角度指定部223は、角度が変更された侵入禁止スペース(図7では31a、31b)に係る情報を保存する。角度指定部223は、角度が変更された侵入禁止スペース(図7では31a、31b)に係る情報を時間管理部224に向けて出力する。
時間管理部224は、侵入禁止スペース(図7では31a、31b)毎に侵入禁止スペースが有効となる時間(例えば、作業時間:開始時刻及び終了時刻)を設定する機能部である(図2参照)。時間管理部224は、インタフェイス部250の操作部251からの設定条件情報(幅、奥行き、高さ、角度、設定時間)を取得する。時間管理部224は、取得された設定条件情報のうち設定時間を保存する。時間管理部224は、取得された設定条件情報のうち設定時間に基づいて、有効となる時間に対応する侵入禁止スペースを選択し、選択された侵入禁止スペースに係る情報を検出処理部230に向けて出力する。例えば、時間管理部224は、設定時間に基づいて、図8のように作業時間23:00~1:29には侵入禁止スペース31aを選択して侵入禁止スペース31aに係る情報を検出処理部230に向けて出力し、図9のように作業時間1:30~3:29には侵入禁止スペース31bを選択して侵入禁止スペース31bに係る情報を検出処理部230に向けて出力することができる。これにより、侵入禁止スペースを順次、自動変更することができる。時間管理部224は、設定条件情報の設定時間の変更があると、それに応じて侵入禁止スペース31a、31bを選択する時間帯を変更する。これにより、工事の進行状況により、侵入禁止スペースを選択している時間を早めたり、遅らせたり変更することも可能である。
検出処理部230は、撮影データ100における侵入禁止スペース(図3の31)の中の点群に基づいて、検出条件情報に合致した検知対象物体(図1の11)の検出処理を行う機能部である(図2参照)。検出処理部230は、前処理部210からの撮影データ100を取得し、侵入禁止スペース指定部220からの侵入禁止スペース31に係る情報を取得し、インタフェイス部250の操作部251から検出条件情報(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる、除外領域に係る情報)を取得する。検出処理部230は、検出処理を定期的に自動実行するだけでなく、インタフェイス部250の操作部251の操作によって任意に手動実行してもよい。検出処理部230は、検出情報(検出条件、検出処理に係る情報を含む)を結果生成部240に向けて出力する。検出処理部230は、条件指定部231と、検出部232と、を備える。
条件指定部231は、検知対象物体11に係る検出条件を指定する機能である(図2参照)。条件指定部231は、インタフェイス部250の操作部251からの検出条件情報(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる、除外領域等)を取得し、保存する。条件指定部231は、取得した検出条件を検出部232に向けて出力する。
ここで、検出条件情報として、例えば、高さ90cm以上であり、かつ、除外領域にない物体を検出するという条件や、移動しており、かつ、除外領域にない物体として検出するという条件等が挙げられる。
検出部232は、撮影データ100における侵入禁止スペース(例えば、図3の31)の中の点群に基づいて、検出条件情報(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる、除外領域等)に合致した検知対象物体(図1の11)を選択的に検出する機能部である。検出部232は、前処理部210からの撮影データ100を取得し、侵入禁止スペース指定部220から侵入禁止スペース31に係る情報を取得し、条件指定部231から検出条件情報を取得する。検知対象物体11の検出では、例えば、図3のように、最初に、撮影データ(図2の100)における侵入禁止スペース31の中の点群を削除する。続いて、侵入禁止スペース31の物体(検知対象物体11、非検知対象物体12)の点群毎の距離によって切り離す1又は複数のセグメント40aを作成する。続いて、作成された1又は複数のセグメント40a中の点群に基づいて、指定された検出条件に合致した検知対象物体11を検出する。検出部232は、検知対象物体11のセグメント40aに係る情報にラベル付けして保持し、検知対象物体11を追跡できるようにしてもよい。検出部232は、検出情報(検出条件、セグメント40aを含む)を結果生成部240に向けて出力する。
結果生成部240は、侵入禁止スペース(図3の31)に係る情報、及び、検出情報(検出条件、セグメント(図3の40a)を含む)に基づいて、管理者に通知するための結果を生成(又は算出)する機能部である(図2参照)。結果生成部240は、侵入禁止スペース指定部220からの侵入禁止スペース31に係る情報を取得し、検出処理部230からの検出情報(検出条件、セグメント40aを含む)を取得する。生成される結果は、侵入禁止スペース(図3の31)の図形、及び、検出情報の図形又は諸元(例えば、検出条件における高さ、除外領域、セグメント40aの図形又は高さ等)とすることができる。結果生成部240は、生成された結果をインタフェイス部250に向けて出力する。結果生成部240は、検出情報において検知対象物体11のセグメント40a(例えば、ラベル付きのセグメント)があるか否かを判定し、検知対象物体11のセグメント40aがある場合には、生成された結果とともに警告情報をインタフェイス部250に向けて出力するようにしてもよい。結果生成部240は、図形生成部241と、諸元算出部242と、を有する。
図形生成部241は、侵入禁止スペース(図3の31)に係る情報、及び、検出情報(検出条件、セグメント(図3の40a)を含む)に基づいて、図形を生成する機能部である(図2参照)。生成される図形として、例えば、侵入禁止スペース31の図形、及び、検出情報の図形(例えば、検出条件の除外領域の図形、検知対象物体11のセグメント40aの図形等)が挙げられる。図形は、位置を考慮して生成される。また、図形の生成では、侵入禁止スペース31及び検出情報のうちの一部の要素の生成を省略することができる。なお、図形生成部241は、検知対象物体(図1の11)と非検知対象物体(図1の12)との違いを明確にするために、非検知対象物体(図7の12)のセグメント40aの図形を生成しないようにすることができる。図形生成部241は、生成された図形を結果としてインタフェイス部250の表示部252及び通信部253に向けて出力する。
諸元算出部242は、検出情報(検出条件、セグメント(図3の40a)を含む)に基づいて、諸元(寸法、体積、移動速度等)を算出する機能部である(図2参照)。算出される諸元として、例えば、検出情報の諸元(例えば、検出条件の高さ範囲の高さ、セグメント40aの高さ等)が挙げられる。諸元算出部242は、算出された諸元を結果としてインタフェイス部250の表示部252及び通信部253に向けて出力する。
インタフェイス部250は、ユーザと物体検知装置200との間の情報のやりとりを行う機能部である(図2参照)。インタフェイス部250は、操作部251と、表示部252と、通信部253と、を有する。
操作部251は、ユーザの操作を受ける機能部である(図2参照)。ユーザは、操作部251を操作(例えば、キーボード操作、マウスのクリック操作、タッチパネルのタップ操作等)することにより入力されたデータ(例えば、文字、数字、位置、領域等)を侵入禁止スペース指定部220又は検出処理部230に向けて出力する。操作部251は、ユーザの操作により入力された条件(幅、奥行き、高さ、角度、設定時間)に係る情報を侵入禁止スペース指定部220に出力する。操作部251は、ユーザの操作により入力された検出条件(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる、除外領域等)を検出処理部230に向けて出力する。操作部251は、ユーザの操作により、物体検知装置200の機能における全体処理の開始・終了を指示する。
表示部252は、各種情報を表示する機能部である(図2参照)。表示部252は、前処理部210のノイズ除去部212からの前処理後の撮影データ100を表示する。表示部252は、結果生成部240からの結果、及び、警告情報(取得した場合)を表示する。警告情報の表示の仕方として、例えば、背景の色を変化又は点滅させることができる。表示された撮影データ100や結果については、スクリーンショット、数値データなどで保存するようにしてもよい。なお、表示部252で表示される情報は、スピーカを用いて音声出力してもよく、プリンタで印刷してもよく、他の端末に送信出力してもよい。
通信部253は、各種情報を送受信する機能部である(図2参照)。通信部253は、結果生成部240からの結果110、及び、警告情報(取得した場合)を、ネットワーク(図1の400)を介して携帯通信端末(図1の500)に送信する。
次に、実施形態1に係る物体検知システムにおける物体検知装置を利用した侵入禁止スペースの指定の例について図面を用いて説明する。
ここで、図4~図9は、目印として線路を用いた場合の侵入禁止スペースの指定の手順を示している。また、図10は、目印として三角コーンを用いた場合の侵入禁止スペース候補の自動作成の例を示している。また、図11は、目印として人を用いた場合の侵入禁止スペース候補の自動作成の例を示している。さらに、図12は、目印として電線を用いた場合の侵入禁止スペース候補の自動作成の例を示している。図13は、検出線から所定距離離れた位置に侵入禁止スペース候補を自動作成する場合の例を示している。なお、物体検知装置の構成部については、図1及び図2を参照されたい。また、物体検知装置200は、監視者がインタフェイス部250の操作部251を操作することで処理を行うものとする。
図4は、物体検知装置200の前処理部210で前処理した後の撮影データ100のイメージを示している。撮影データ100の撮影スペース20において非検知対象物体12が存在している。
図5は、物体検知装置200の侵入禁止スペース指定部220の目印認識部221で、予め設定された目印に係る形態(ここでは一対の平行線)に対応する目印(線路14a、14b)を検出して、当該目印に係る検出線22a、22bを作成した後の撮影データ100のイメージを示している。
図6は、物体検知装置200の侵入禁止スペース指定部220の目印認識部221で、作成された検出線22a、22bに基づいて、予め設定されたフォームにしたがって、検出線22a、22bを包含するように、対応する侵入禁止スペース候補30a、30bを自動作成した後の撮影データ100のイメージを示している。
図7は、物体検知装置200の侵入禁止スペース指定部220のスペース指定部222で、設定条件情報のうち幅、奥行き、高さに基づいて、侵入禁止スペース候補(図6の30a、30b)の条件(侵入禁止スペース候補30aについては座標(x10,y10,z10)とその対極の座標(x11,y11,z11)、侵入禁止スペース候補30bについては座標(x20,y20,z20)とその対極の座標(x21,y21,z21))を指定して侵入禁止スペース31a、31bを作成した後の撮影データ100のイメージを示している。
図8は、物体検知装置200の侵入禁止スペース指定部220の時間管理部224で、設定条件情報のうち設定時間に基づいて、作業時間23:00~1:29に侵入禁止スペース31aを選択した後の撮影データ100のイメージを示している。
図9は、物体検知装置200の侵入禁止スペース指定部220の時間管理部224で、設定条件情報のうち設定時間に基づいて、作業時間1:30~3:29に侵入禁止スペース31bを選択した後の撮影データ100のイメージを示している。
ここで、例えば、鉄道工事においては、複々線、三複線などの場合、工事計画に従い時間帯により工事対象の線路がずれていくため、それに合わせて侵入禁止スペースも変化する。しかしながら、毎回、侵入禁止スペースの切り替えに伴う設定作業を手動で行うと非常に手間がかかる。そこで、図8及び図9のように自動作成しておいた侵入禁止スペースの自動切り替えによれば、侵入禁止スペースの切り替えに伴う設定作業が不要となり、作成しておいた侵入禁止スペースを作業時間とともに自動的にずらしていくことが可能となる。
図10は、物体検知装置200の侵入禁止スペース指定部220の目印認識部221で、予め設定された目印に係る形態(ここでは三角垂面)に対応する目印(三角コーン15)を検出して、当該目印に係る検出線23を作成し、作成された検出線23に基づいて、予め設定されたフォームにしたがって検出線23を包含するように、1又は複数の侵入禁止スペース候補32を自動作成した後の撮影データ100のイメージを示している。その後の侵入禁止スペースの作成及び選択については、図7~図9の場合と同様である。目印となる三角コーン15は、赤色/プラスチックという特徴を持っており、3次元センサ300で三角コーン15を撮影した場合、距離情報と共に、反射強度情報を取得することができる。したがって、三角コーン15は、周囲の点群情報(大きさ/形状)とは異なる反射強度で反射強度情報を取得できることから、撮影した撮影データ100の中から三角コーン15を目印として自動的に抽出することが可能となる。
図11は、物体検知装置200の侵入禁止スペース指定部220の目印認識部221で、予め設定された目印に係る形態(ここでは人型面)に対応する目印(人16)を検出して、当該目印に係る検出線24を作成し、作成された検出線24に基づいて、予め設定されたフォームにしたがって検出線24を包含するように、侵入禁止スペース候補33を自動作成した後の撮影データ100のイメージを示している。その後の侵入禁止スペースの作成及び選択については、図7~図9の場合と同様である。
例えば、3次元センサ300は、近接撮影では、線路や、電線などの目印を捉えることができるが、撮影距離が遠くなると、撮影した点群データが粗となっていくため目印の情報をはっきりと捉えることができない場合がある。その場合は、図10や図11のように三角コーンや人などの目印を活用し、点群データに映るものを目印として付加して侵入禁止スペースの設定のための補完方法として活用することができる。なお、侵入禁止スペース候補を作成した後は、目印(三角コーンや人)がなくなったとしてもソフトウェア上に侵入禁止スペース候補が保持されているため問題ない。また、図10及び図11では目印となる三角コーン15や人16は4つ存在するが3つ以上の目印があればよい。
図12は、物体検知装置200の侵入禁止スペース指定部220の目印認識部221で、予め設定された目印に係る形態(ここでは懸垂線)に対応する目印(電線17a、17b)を検出して、当該目印に係る検出線25a、25bを作成し、作成された検出線25a、25bに基づいて、予め設定されたフォームにしたがって検出線25a、25bを包含するように、対応する侵入禁止スペース候補34a、34bを自動作成した後の撮影データ100のイメージを示している。その後の侵入禁止スペースの作成及び選択については、図7~図9の場合と同様である。
図13は、物体検知装置200の侵入禁止スペース指定部220の目印認識部221で、予め設定された目印に係る形態(ここでは三角錐面)に対応する目印(三角コーン18;その他のものでも可)を検出して、当該目印に係る検出線26を作成し、作成された検出線26に基づいて、予め設定されたフォームにしたがって検出線26から所定距離(高さ)離れるように、侵入禁止スペース候補35a、35bを自動作成した後の撮影データ100のイメージを示している。その後の侵入禁止スペースの作成及び選択については、図7~図9の場合と同様である。例えば、電線は低圧線、高圧線などの種類によって地面からの高さが決まっていることが多いので、図13では地上の目印を基準に電線の種類に応じた高さに侵入禁止スペース候補35a、35bを自動作成している。
次に、実施形態1に係る物体検知システムにおける物体検知装置の動作について図面を用いて説明する。図14は、実施形態1に係る物体検知システムにおける物体検知装置の動作を模式的に示したフローチャート図である。なお、物体検知システム及び物体検知装置の構成については、図1及び図2を参照されたい。
まず、物体検知装置200の前処理部210は、3次元センサ300で撮影された撮影データ100を取得する(ステップA1)。
次に、前処理部210のフォーマット変換部211は、取得した撮影データ100のフォーマットを共通フォーマットに変換する(ステップA2)。
次に、前処理部210のノイズ除去部212は、共通フォーマットに変換された撮影データ100のノイズを除去する(ステップA3)。
次に、侵入禁止スペース指定部220の目印認識部221は、ノイズ除去された撮影データ100の撮影スペース(図4の20)において、予め設定された目印に係る形態(例えば、図4では一対の平行線)に対応する目印(図5では線路14a、14b)を検出する(ステップA4)。
次に、侵入禁止スペース指定部220の目印認識部221は、検出された目印(図5では線路14a、14b)に係る検出線(図5では22a、22b)を作成する(ステップA5)。
次に、侵入禁止スペース指定部220の目印認識部221は、作成された検出線(図5では22a、22b)に基づいて、予め設定されたフォームにしたがって1又は複数の侵入禁止スペース候補(図6では30a、30b)を自動作成する(ステップA6)。
次に、侵入禁止スペース指定部220は、インタフェイス部250の操作部251からの設定条件情報(幅、奥行き、高さ、角度、設定時間)を取得する(ステップA7)。設定条件情報がない場合はステップA7をスキップする。
次に、侵入禁止スペース指定部220のスペース指定部222は、取得した設定条件情報のうち幅、奥行き、高さに基づいて、作成された侵入禁止スペース候補(図6では30a、30b)の設定条件を指定して侵入禁止スペース(図7では31a、31b)を作成する(ステップA8)。なお、設定条件情報のうち幅、奥行き、高さがない場合はステップA8をスキップする。
次に、侵入禁止スペース指定部220の角度指定部223は、取得された設定条件情報のうち角度に基づいて、撮影データ100の点群(又は、スペース指定部222からの侵入禁止スペース31a、31b)を回転させることで侵入禁止スペース(図7では31a、31b)の角度を変更する(ステップA9)。なお、設定条件情報のうち角度がない場合はステップA9をスキップする。
次に、侵入禁止スペース指定部220の時間管理部224は、インタフェイス部250の操作部251からの設定条件情報(幅、奥行き、高さ、角度、設定時間)を取得し、取得された設定条件情報のうち設定時間に基づいて、有効となる時間(図8では23:00~1:29)に対応する侵入禁止スペース(図8では31a)を選択する(ステップA10)。なお、設定条件情報のうち設定時間がない場合は、侵入禁止スペース候補(図6では30a、30b)又は侵入禁止スペース(図7では31a、31b)のいずれかを手動で選択したり、ステップA6で作成された侵入禁止スペース候補(図6では30a、30b)の全てを侵入禁止スペースとして選択したり、ステップA9で角度変更された侵入禁止スペース(図7では31a、31b)の全てを選択することができる。
次に、物体検知装置200の検出処理部230は、インタフェイス部250の操作部251からの検出条件情報(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる、除外領域等)を取得する(ステップA11)。検出条件情報がない場合はステップA11をスキップする。
次に、物体検知装置200の検出処理部230は、ノイズ除去された撮影データ100、及び、選択された侵入禁止スペース(図8では31a)を用いて、撮影データ100における侵入禁止スペース(図8では31a)の中の点群に基づいて、取得した検出条件情報(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる、除外領域等)に合致した検知対象物体11を検出する(ステップA12)。なお、検出条件情報がない場合は、予め設定された初期検出条件情報や、前回取得した検出条件情報を用いることができる。また、検知対象物体11の検出では、撮影データ100における侵入禁止スペース31の中の点群から、侵入禁止スペース31の点群を削除し、侵入禁止スペース31上の物体(検知対象物体11、非検知対象物体12)の点群毎の距離によって切り離すセグメント40aを作成し、作成された各セグメント40aの中の点群に基づいて、指定された検出条件に合致した検知対象物体11を検出する。検知対象物体11が検出された場合、検知対象物体11のセグメント40aにラベル付けする。なお、ステップA12において検知対象物体11が検出されない場合、ステップA13に進む。
次に、物体検知装置200の結果生成部240の図形生成部241は、選択された侵入禁止スペース(図8では31a)、取得した検出情報(特に、セグメント(図3の40a))も用いて、侵入禁止スペース(図8では31a)、及び検出情報の図形を生成する(ステップA13)。なお、図形の生成では、侵入禁止スペース(図8では31a)及び検出情報のうちの一部の要素の生成を省略することができる。また、図形の生成の際、検出情報において検知対象物体11のセグメント40a(ラベル付き)があるか否かを判定し、検知対象物体11のセグメント40aがある場合には、警告情報を生成する。また、図形の生成では、図形の生成後、新たに図形の生成の際に侵入禁止スペース(図8では31a)及び検出情報に変化がなければ、前回に生成した図形を維持しつつステップA13をスキップすることができる。
次に、結果生成部240の諸元算出部242は、検出情報(検出条件、セグメント40a)に基づいて、諸元(寸法、体積、移動速度等)を算出する(ステップA14)。なお、諸元の算出では、諸元の算出後、新たに諸元の算出の際に検出情報に変化がなければ、前回に算出した諸元を維持しつつステップA14をスキップすることができる。
最後に、物体検知装置200のインタフェイス部250の表示部252は、ノイズ除去された撮影データ100、生成された図形、算出された諸元を表示する(ステップA15)。また、警告情報が生成されている場合、表示部252は、警告情報を表示する。表示の際、インタフェイス部250の通信部253は、表示された内容(結果)を携帯通信端末500に送信する。これにより、携帯通信端末500でも、表示部252で表示された内容と同じ内容を表示することができる。その後、フローを終了し、次のフローを実行する。
実施形態1によれば、撮影データ100中の所定の目印を認識して新たな侵入禁止スペース候補を自動作成しているので、新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができる。
[実施形態2]
実施形態2に係る物体検知システムについて図面を用いて説明する。図15は、実施形態2に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。
実施形態2は、実施形態1の変形例であり、時間の代わりにジェスチャによって侵入禁止エリアの選択の切り替えを行えるようにしたものである。実施形態2に係る物体検知システムにおける物体検知装置200では、新たにジェスチャ認識部260を追加し、侵入禁止スペース指定部220において、実施形態1の時間管理部(図2の224)の代わりにジェスチャ指示管理部225を設けたものである。なお、侵入禁止スペース指定部220においては、時間管理部(図2の224)とジェスチャ指示管理部225とが並設された構成であってもよい。
ジェスチャ認識部260は、撮影データ100における人(監督者)のジェスチャ(例えば、予め決められた身振り、手振り)を認識し、認識されたジェスチャに対応する選択指示情報(侵入禁止スペースの選択指示又は選択変更指示)を出力する機能部である(図15参照)。ジェスチャ認識部260は、前処理部210で前処理された撮影データ100を取得する。ジェスチャ認識部260は、認識されたジェスチャに対応する選択指示情報を、侵入禁止スペース指定部220に向けて出力する。ジェスチャ認識部260は、ジェスチャ検出部261と、指示部262と、を備える。
ジェスチャ検出部261は、撮影データ100における監督者のジェスチャを検出する機能部である(図15参照)。ジェスチャ検出部261は、撮影データ100における監督者のジェスチャを3次元形状として認識し、認識された3次元形状に係る情報を指示部262に向けて出力する。
指示部262は、ジェスチャ検出部261からの3次元形状に係る情報に対応する侵入禁止スペースの選択指示又は選択変更指示に係る選択指示情報を出力する機能部である(図15参照)。指示部262は、侵入禁止スペースの選択指示又は選択変更指示に係る選択指示情報を侵入禁止スペース指定部220のジェスチャ指示管理部225に向けて出力する。
ジェスチャ指示管理部225は、ジェスチャ認識部260の指示部262からの選択指示情報に基づいて、侵入禁止スペース(図7では31a、31b)の初期選択又は選択変更を行う機能部である(図15参照)。ジェスチャ指示管理部225は、ジェスチャ認識部260の指示部262からの選択指示情報を取得する。ジェスチャ指示管理部225は、取得した選択指示情報を保存する。ジェスチャ指示管理部225は、取得した選択指示情報に基づいて、角度指定部223で角度変更された侵入禁止スペース(図7では31a、31b)の初期選択又は選択変更を行う。なお、ジェスチャ指示管理部225は、選択指示情報がない場合、侵入禁止スペース(図7では31a、31b)のいずれかを手動で選択したり、角度変更された侵入禁止スペース(図7では31a、31b)の全てが選択されたものとすることができ、実施形態1の時間管理部(図2の224)を用いて時間に応じて侵入禁止スペース(図7では31a、31b)のいずれかを選択するようにしてもよい。ジェスチャ指示管理部225は、選択された侵入禁止スペースに係る情報を検出処理部230及び結果生成部240に向けて出力する。
実施形態2におけるその他の構成及び動作は、実施形態1に係る物体検知システムにおける物体検知装置の構成及び動作と同様である。
実施形態2によれば、実施形態1と同様に、撮影データ100中の所定の目印を認識して新たな侵入禁止スペース候補を自動作成しているので、新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができるとともに、現場の状況を熟知している現場監督のジェスチャに応じて侵入禁止スペースを選択することができる。
[実施形態3]
実施形態3に係る物体検知システムについて図面を用いて説明する。図16は、実施形態3に係る物体検知システムの構成を模式的に示したブロック図である。図17は、実施形態3に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。
実施形態3は、実施形態1の変形例であり、自動作成された侵入禁止スペース候補ごとに位置特定情報を付加する機能を追加したものである。実施形態3は、実施形態2に適用することができる。
実施形態3に係る物体検知システム1では、物体検知装置200からの要求に応じて地図情報を物体検知装置200に提供する地図情報提供サーバ600が追加されている。
また、実施形態3に係る物体検知システム1では、3次元センサ300において、撮影スペース(図4の20)内のオブジェクト(図1の検知対象物体11、非検知対象物体12、線路14、地面等を含む)の表面をセンシングして撮影する3次元センサ部310の他に、さらに、3次元センサ300自身の位置を検出する位置検出部320と、3次元センサ部310の視線の方位を検出する方位検出部330と、を備える(図16参照)。
センサ部310は、撮影スペース20を撮影して撮影データ(図2の100)を作成し、作成された撮影データ100を物体検知装置200及び携帯通信端末500に向けて出力する(図16、図17参照)。位置検出部320には、GPS(Global Positioning System)受信機を用いることができる。位置検出部320は、検出した3次元センサ300自身の位置データ120を物体検知装置200に向けて出力する。方位検出部330は、検出した3次元センサ部310の視線の方位データ130を物体検知装置200に向けて出力する。
また、実施形態3に係る物体検知システム1では、物体検知装置200の侵入禁止スペース指定部220において、自動作成された侵入禁止スペース候補ごとに位置特定情報を付加する位置特定部226が追加されている。位置特定部226は、前処理部210からの撮影データ100を取得し、目印認識部221からの侵入禁止スペース候補(図6では30a、30b)に係る情報を取得し、3次元センサ300からの位置データ120及び方位データ130を取得する。位置特定部226は、取得した位置データ120に基づいて、位置データ120に係る位置の所定範囲の地図情報140を地図情報提供サーバ600から取得する。位置特定部226は、取得した撮影データ100、位置データ120、方位データ130、及び、地図情報140に基づいて、侵入禁止スペース候補(図6では30a、30b)ごとの位置を特定し、地図情報140から、特定された位置に係る位置特定情報を抽出し、抽出された位置特定情報を侵入禁止スペース候補に付加(関連付け、紐付け)する。位置特定部226は、位置特定情報が付加された侵入禁止スペース候補に係る情報をスペース指定部222に向けて出力する。スペース指定部222では、位置特定部226からの侵入禁止スペース候補(位置特定情報が付加されたもの)に係る情報を用いて侵入禁止スペースを作成することになる。これにより、侵入禁止スペースの位置を特定することが容易になる。
位置特定部226における侵入禁止スペース候補の位置の特定では、3次元センサ300の位置データ120及び方位データ130と、撮影データ100における侵入禁止スペース候補内にある点群とに基づいて、地図情報140上の侵入禁止スペース候補の位置を特定することができる。また、位置特定部226における位置特定情報の取得では、特定された侵入禁止スペース候補の位置に基づいて、地図情報140から、侵入禁止スペース候補に係る位置特定情報(例えば、新宿付近の鉄道であれば山手線、中央線、総武線、埼京線などの路線情報)を取得することができる。
実施形態3におけるその他の構成及び動作は、実施形態1に係る物体検知システムにおける物体検知装置の構成及び動作と同様である。
実施形態3によれば、実施形態1と同様に、撮影データ100中の所定の目印を認識して新たな侵入禁止スペース候補を自動作成しているので、新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができるとともに、侵入禁止スペースの位置を特定することが容易になる。
[実施形態4]
実施形態4に係る物体検知システムについて図面を用いて説明する。図18は、実施形態4に係る物体検知システムの構成を模式的に示したブロック図である。図19は、実施形態4に係る物体検知システムにおける物体検知装置の構成を模式的に示したブロック図である。
実施形態4は、実施形態1の変形例であり、目印を撮影した3次元点群データを確認しやすくするため、物体検知システム1において、3次元センサ300とともにRGB(Red Green Blue)カメラ700を併設したものである(図18参照)。実施形態4は、実施形態2、3にも適用することができる。
RGBカメラ700は、撮影スペース(図4の20)内のオブジェクトの色味をセンシングして2次元撮影するカメラである(図18参照)。RGBカメラ700は、3次元センサ300で撮影している撮影スペース(図4では20)の目印(図4では14a、14b)を含むように撮影する。RGBカメラ700は、撮影スペース(図4の20)を撮影してRGBデータ(図19の150)を作成し、作成されたRGBデータ150を物体検知装置200の侵入禁止スペース指定部220の目印認識部221に向けて出力する。
目印認識部221は、撮影データ100及びRGBデータ150に基づいて、撮影スペース(図4の20)において、予め設定された目印に係る形態(例えば、図4に関しては一対の平行線、線路14a、14bの色)に対応する目印(図5では線路14a、14b)を検出する。
実施形態4におけるその他の構成及び動作は、実施形態1に係る物体検知システムにおける物体検知装置の構成及び動作と同様である。
実施形態4によれば、実施形態1と同様に、撮影データ100中の所定の目印を認識して新たな侵入禁止スペース候補を自動作成しているので、新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができるとともに、撮影データ100(3次元点群データ)に現実の肉眼で見える色味のRGBデータ150を付加してセンサフュージョン(検出原理の異なる複数のセンサを組み合わせて、認識性を高めること)させることにより、視認性が高まり、侵入禁止スペースを設定するための目印の認識を向上させることができる。
[実施形態5]
実施形態5に係る物体検知装置について図面を用いて説明する。図20は、実施形態5に係る物体検知装置の構成を模式的に示したブロック図である。
物体検知装置200は、撮影データ100における所定の物体を検知する装置である。物体検知装置200は、侵入禁止スペース指定部220と、検出処理部230と、を備える。
侵入禁止スペース指定部220は、撮影データ100において、予め設定された目印に係る形態に対応する目印を検出する。侵入禁止スペース指定部220は、検出された目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成する。侵入禁止スペース指定部220は、作成された侵入禁止スペースのいずれかを選択する。
検出処理部230は、撮影データ100における、選択された侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出する。
実施形態5によれば、撮影データ100中の所定の目印を認識して新たな侵入禁止スペースを作成しているので、新たな侵入禁止スペースを設定する作業を効率的に行うことに貢献することができる。
なお、実施形態1~5に係る物体検知装置は、いわゆるハードウェア資源(情報処理装置、コンピュータ)により構成することができ、図21に例示する構成を備えたものを用いることができる。例えば、ハードウェア資源1000は、内部バス1004により相互に接続される、プロセッサ1001、メモリ1002、ネットワークインタフェイス1003等を備える。
なお、図21に示す構成は、ハードウェア資源1000のハードウェア構成を限定する趣旨ではない。ハードウェア資源1000は、図示しないハードウェア(例えば、入出力インタフェイス)を含んでもよい。あるいは、装置に含まれるプロセッサ1001等のユニットの数も図21の例示に限定する趣旨ではなく、例えば、複数のプロセッサ1001がハードウェア資源1000に含まれていてもよい。プロセッサ1001には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等を用いることができる。
メモリ1002には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いることができる。
ネットワークインタフェイス1003には、例えば、LAN(Local Area Network)カード、ネットワークアダプタ、ネットワークインタフェイスカード等を用いることができる。
ハードウェア資源1000の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ1002に格納されたプログラムをプロセッサ1001が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェアにおいてソフトウェアが実行されることによって実現できればよい。
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択するように構成された侵入禁止エリア指定部と、
前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出するように構成された検出処理部と、
を備える、物体検知装置。
[付記2]
ユーザの操作を受ける操作部をさらに備え、
前記侵入禁止エリア指定部は、
前記撮影データにおいて、前記予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて前記予め設定されたフォームにしたがって少なくとも1つの侵入禁止スペース候補を自動作成するように構成された目印認識部と、
前記操作部から入力された設定条件情報に含まれる幅、奥行き、高さに基づいて、前記少なくとも1つの侵入禁止スペース候補の設定条件を指定して少なくとも1つの侵入禁止スペースを作成するように構成されたスペース指定部と、
所定の基準に基づいて、前記少なくとも1つの侵入禁止スペースの中からいずれかの侵入禁止スペースを選択するように構成された管理部と、
を備える、付記1記載の物体検知装置。
[付記3]
前記目印認識部は、前記撮影データにおいて、前記予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に係る検出線を作成し、作成された前記検出線に基づいて前記予め設定されたフォームにしたがって前記少なくとも1つの侵入禁止スペース候補を自動作成するように構成されている、付記2記載の物体検知装置。
[付記4]
前記管理部は、前記所定の基準として前記操作部から入力された選択情報に基づいて、前記少なくとも1つの侵入禁止スペースの中からいずれかの侵入禁止スペースを選択するように構成されている、付記2又は3記載の物体検知装置。
[付記5]
前記管理部は、前記所定の基準として前記設定条件情報に設定時間が含まれているときに、前記設定時間に基づいて、前記少なくとも1つの侵入禁止スペースの中から、前記設定時間に対応するいずれかの侵入禁止スペースを選択するように構成された時間管理部である、付記2乃至4のいずれか一に記載の物体検知装置。
[付記6]
前記撮影データにおける人のジェスチャを認識し、認識された前記ジェスチャに対応する選択指示情報を出力するように構成されたジェスチャ認識部をさらに備え、
前記管理部は、前記所定の基準として前記選択指示情報に基づいて、前記少なくとも1つの侵入禁止スペースの中から、前記選択指示情報に対応するいずれかの侵入禁止スペースを選択するように構成されたジェスチャ指示管理部である、付記2乃至5のいずれか一に記載の物体検知装置。
[付記7]
前記侵入禁止エリア指定部は、前記撮影データの撮影を行うセンサの位置データ及び方位データを取得し、取得した前記位置データに基づいて、前記位置データに係る位置の所定範囲の地図情報を地図情報提供サーバから取得し、前記撮影データ、前記位置データ、前記方位データ、及び、前記地図情報に基づいて、前記侵入禁止スペース候補ごとの位置を特定し、前記地図情報から、特定された位置に係る位置特定情報を抽出し、抽出された前記位置特定情報を、対応する前記侵入禁止スペース候補に付加し、前記位置特定情報が付加された前記侵入禁止スペース候補に係る情報を前記スペース指定部に向けて出力するように構成される位置特定部をさらに備える、付記2乃至6のいずれか一に記載の物体検知装置。
[付記8]
前記目印認識部は、前記撮影データにおける目印を含むように撮影を行うRGBカメラからRGBデータを取得し、前記RGBデータも用いて、前記撮影データにおいて、前記予め設定された目印に係る形態に対応する目印を検出するように構成されている、付記2乃至7のいずれか一に記載の物体検知装置。
[付記9]
前記予め設定された目印に係る形態は、インフラとして存在する連続的又は断続的な形態である、付記1乃至8のいずれか一に記載の物体検知装置。
[付記10]
所定空間を撮影した撮影データを出力するように構成されたセンサと、
付記1乃至9のいずれか一に記載の物体検知装置と、
を備える、物体検知システム。
[付記11]
ハードウェア資源を用いて物体を検知する物体検知方法であって、
撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択するステップと、
前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出するステップと、
を含む、物体検知方法。
[付記12]
ハードウェア資源に物体を検知する処理を実行させるプログラムであって、
撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択する処理と、
前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出する処理と、
を前記ハードウェア資源に実行させる、プログラム。
なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(特許請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択(必要により不選択)が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、本願に記載の数値及び数値範囲については、明記がなくともその任意の中間値、下位数値、及び、小範囲が記載されているものとみなされる。さらに、上記引用した文献の各開示事項は、必要に応じ、本願発明の趣旨に則り、本願発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれる(属する)ものと、みなされる。
1 物体検知システム
11 検知対象物体
12 非検知対象物体
13 列車
14、14a、14b 線路(目印)
15、18 三角コーン(目印)
16 人(目印)
17a、17b 電線(目印)
20 撮影スペース
22a、22b、23、24、25a、25b、26 検出線
30、30a、30b、32、33 侵入禁止スペース候補
31、31a、31b 侵入禁止スペース
34a、34b、35a、35b 侵入禁止スペース候補
40a セグメント
100 撮影データ
110 結果
120 位置データ
130 方位データ
140 地図情報
150 RGBデータ
200 物体検知装置
210 前処理部
211 フォーマット変換部
212 ノイズ除去部
220 侵入禁止スペース指定部
221 目印認識部
222 スペース指定部
223 角度指定部
224 時間管理部(管理部)
225 ジェスチャ指示管理部(管理部)
226 位置特定部
230 検出処理部
231 条件指定部
232 検出部
240 結果生成部
241 図形生成部
242 諸元算出部
250 インタフェイス部
251 操作部
252 表示部
253 通信部
260 ジェスチャ認識部
261 ジェスチャ検出部
262 指示部
300 3次元センサ
301 三脚
310 3次元センサ部
320 位置検出部
330 方位検出部
400 ネットワーク
500 携帯通信端末
600 地図情報提供サーバ
700 RGBカメラ
1000 ハードウェア資源
1001 プロセッサ
1002 メモリ
1003 ネットワークインタフェイス
1004 内部バス

Claims (12)

  1. 撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択するように構成された侵入禁止エリア指定部と、
    前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出するように構成された検出処理部と、
    を備える、物体検知装置。
  2. ユーザの操作を受ける操作部をさらに備え、
    前記侵入禁止エリア指定部は、
    前記撮影データにおいて、前記予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて前記予め設定されたフォームにしたがって少なくとも1つの侵入禁止スペース候補を自動作成するように構成された目印認識部と、
    前記操作部から入力された設定条件情報に含まれる幅、奥行き、高さに基づいて、前記少なくとも1つの侵入禁止スペース候補の設定条件を指定して少なくとも1つの侵入禁止スペースを作成するように構成されたスペース指定部と、
    所定の基準に基づいて、前記少なくとも1つの侵入禁止スペースの中からいずれかの侵入禁止スペースを選択するように構成された管理部と、
    を備える、請求項1記載の物体検知装置。
  3. 前記目印認識部は、前記撮影データにおいて、前記予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に係る検出線を作成し、作成された前記検出線に基づいて前記予め設定されたフォームにしたがって前記少なくとも1つの侵入禁止スペース候補を自動作成するように構成されている、請求項2記載の物体検知装置。
  4. 前記管理部は、前記所定の基準として前記操作部から入力された選択情報に基づいて、前記少なくとも1つの侵入禁止スペースの中からいずれかの侵入禁止スペースを選択するように構成されている、請求項2又は3記載の物体検知装置。
  5. 前記管理部は、前記所定の基準として前記設定条件情報に設定時間が含まれているときに、前記設定時間に基づいて、前記少なくとも1つの侵入禁止スペースの中から、前記設定時間に対応するいずれかの侵入禁止スペースを選択するように構成された時間管理部である、請求項2乃至4のいずれか一に記載の物体検知装置。
  6. 前記撮影データにおける人のジェスチャを認識し、認識された前記ジェスチャに対応する選択指示情報を出力するように構成されたジェスチャ認識部をさらに備え、
    前記管理部は、前記所定の基準として前記選択指示情報に基づいて、前記少なくとも1つの侵入禁止スペースの中から、前記選択指示情報に対応するいずれかの侵入禁止スペースを選択するように構成されたジェスチャ指示管理部である、請求項2乃至5のいずれか一に記載の物体検知装置。
  7. 前記侵入禁止エリア指定部は、前記撮影データの撮影を行う3次元センサの位置データ及び方位データを取得し、取得した前記位置データに基づいて、前記位置データに係る位置の所定範囲の地図情報を地図情報提供サーバから取得し、前記撮影データ、前記位置データ、前記方位データ、及び、前記地図情報に基づいて、前記侵入禁止スペース候補ごとの位置を特定し、前記地図情報から、特定された位置に係る位置特定情報を抽出し、抽出された前記位置特定情報を、対応する前記侵入禁止スペース候補に付加し、前記位置特定情報が付加された前記侵入禁止スペース候補に係る情報を前記スペース指定部に向けて出力するように構成される位置特定部をさらに備える、請求項2乃至6のいずれか一に記載の物体検知装置。
  8. 前記目印認識部は、前記撮影データにおける目印を含むように撮影を行うRGBカメラからRGBデータを取得し、前記RGBデータも用いて、前記撮影データにおいて、前記予め設定された目印に係る形態に対応する目印を検出するように構成されている、請求項2乃至7のいずれか一に記載の物体検知装置。
  9. 前記予め設定された目印に係る形態は、インフラとして存在する連続的又は断続的な形態である、請求項1乃至8のいずれか一に記載の物体検知装置。
  10. 所定空間を撮影した撮影データを出力するように構成されたセンサと、
    請求項1乃至9のいずれか一に記載の物体検知装置と、
    を備える、物体検知システム。
  11. ハードウェア資源を用いて物体を検知する物体検知方法であって、
    撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択するステップと、
    前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出するステップと、
    を含む、物体検知方法。
  12. ハードウェア資源に物体を検知する処理を実行させるプログラムであって、
    撮影データにおいて、予め設定された目印に係る形態に対応する目印を検出し、検出された前記目印に基づいて予め設定されたフォームにしたがって1又は複数の侵入禁止スペースを作成し、作成された前記侵入禁止スペースのいずれかを選択する処理と、
    前記撮影データにおける、選択された前記侵入禁止スペースの中の点群に基づいて、予め又は新たに設定された検出条件情報に合致した検知対象物体を検出する処理と、
    を前記ハードウェア資源に実行させる、プログラム。
JP2021030742A 2021-02-26 2021-02-26 物体検知装置、システム、方法、及びプログラム Active JP7694897B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021030742A JP7694897B2 (ja) 2021-02-26 2021-02-26 物体検知装置、システム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021030742A JP7694897B2 (ja) 2021-02-26 2021-02-26 物体検知装置、システム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2022131678A true JP2022131678A (ja) 2022-09-07
JP7694897B2 JP7694897B2 (ja) 2025-06-18

Family

ID=83152972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021030742A Active JP7694897B2 (ja) 2021-02-26 2021-02-26 物体検知装置、システム、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7694897B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145092A (ja) * 1999-11-18 2001-05-25 Meidensha Corp 映像監視システムおよび映像監視方法
JP2003105807A (ja) * 2001-09-27 2003-04-09 Komatsu Ltd 作業車両の侵入禁止領域での停止制御方法及びその制御装置
JP2004042737A (ja) * 2002-07-10 2004-02-12 Fuji Heavy Ind Ltd 踏切監視装置および踏切監視方法
JP2017028364A (ja) * 2015-07-16 2017-02-02 株式会社日立国際電気 監視システムおよび監視装置
JP2017185892A (ja) * 2016-04-05 2017-10-12 株式会社立山科学ワイヤレステクノロジー 保線人員管理システム
WO2018123053A1 (ja) * 2016-12-28 2018-07-05 株式会社オプティム 事故防止システム、方法及びプログラム
JP2018147015A (ja) * 2017-03-01 2018-09-20 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
JP2019016836A (ja) * 2017-07-03 2019-01-31 沖電気工業株式会社 監視システム、情報処理装置、情報処理方法、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145092A (ja) * 1999-11-18 2001-05-25 Meidensha Corp 映像監視システムおよび映像監視方法
JP2003105807A (ja) * 2001-09-27 2003-04-09 Komatsu Ltd 作業車両の侵入禁止領域での停止制御方法及びその制御装置
JP2004042737A (ja) * 2002-07-10 2004-02-12 Fuji Heavy Ind Ltd 踏切監視装置および踏切監視方法
JP2017028364A (ja) * 2015-07-16 2017-02-02 株式会社日立国際電気 監視システムおよび監視装置
JP2017185892A (ja) * 2016-04-05 2017-10-12 株式会社立山科学ワイヤレステクノロジー 保線人員管理システム
WO2018123053A1 (ja) * 2016-12-28 2018-07-05 株式会社オプティム 事故防止システム、方法及びプログラム
JP2018147015A (ja) * 2017-03-01 2018-09-20 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
JP2019016836A (ja) * 2017-07-03 2019-01-31 沖電気工業株式会社 監視システム、情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7694897B2 (ja) 2025-06-18

Similar Documents

Publication Publication Date Title
CN110174093B (zh) 定位方法、装置、设备和计算机可读存储介质
CN115597659B (zh) 一种变电站智能安全管控方法
KR102289745B1 (ko) 실시간 현장 작업 모니터링 방법 및 시스템
KR101758576B1 (ko) 물체 탐지를 위한 레이더 카메라 복합 검지 장치 및 방법
CN111937049A (zh) 侵入检测系统及侵入检测方法
JP2005268847A (ja) 画像生成装置、画像生成方法、および画像生成プログラム
JPWO2019065045A1 (ja) 物体捜索システム、物体捜索装置、及び物体捜索方法
JP2017129508A (ja) 自己位置推定システム、自己位置推定方法、モバイル端末、サーバおよび自己位置推定プログラム
JP2011170599A (ja) 屋外構造物計測装置及び屋外構造物計測方法
CN113557713A (zh) 情景感知监测
WO2021024685A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7405395B2 (ja) 物体検知装置、システム、方法、及びプログラム
JP6943183B2 (ja) 位置特定装置、位置特定方法、位置特定プログラムおよびカメラ装置
WO2016135985A1 (ja) 情報提供方法、情報提供プログラム、情報提供装置、情報処理装置及び情報提供システム
JP6509546B2 (ja) 画像検索システム及び画像検索方法
JP2024169573A (ja) クレーン用撮影システム及びプログラム
KR102468685B1 (ko) 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법
JP2020077898A (ja) 画像処理装置および画像処理方法
JP6368503B2 (ja) 障害物監視システム及びプログラム
CN112528699A (zh) 用于获得场景中的设备或其用户的标识信息的方法和系统
JP2022131678A (ja) 物体検知装置、システム、方法、及びプログラム
JP2021103410A (ja) 移動体及び撮像システム
JP2020136703A (ja) 撮像装置、撮像方法及び撮像プログラム
KR20120122779A (ko) 감시 시스템
WO2020234912A1 (ja) 携帯装置、位置表示方法、及び位置表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250529