JP2023035434A - Object detection device, system, method, and program - Google Patents

Object detection device, system, method, and program Download PDF

Info

Publication number
JP2023035434A
JP2023035434A JP2021142279A JP2021142279A JP2023035434A JP 2023035434 A JP2023035434 A JP 2023035434A JP 2021142279 A JP2021142279 A JP 2021142279A JP 2021142279 A JP2021142279 A JP 2021142279A JP 2023035434 A JP2023035434 A JP 2023035434A
Authority
JP
Japan
Prior art keywords
detection
target object
point cloud
exclusion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021142279A
Other languages
Japanese (ja)
Inventor
悟己 上野
Satoki Ueno
教之 青木
Noriyuki Aoki
真則 高岡
Masanori Takaoka
研二 河野
Kenji Kono
ゆり 安達
Yuri Adachi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2021142279A priority Critical patent/JP2023035434A/en
Publication of JP2023035434A publication Critical patent/JP2023035434A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an object detection device capable of contributing to identification and detection of an object even when information on the object in a monitoring area is partial or sparse.SOLUTION: An object detection device includes: a monitoring area specification unit for specifying a monitoring area relative to three-dimensional point group data related to a site; a reference surface determination unit for determining a reference surface based on a point group in the monitoring area; and a detection unit for selectively detecting a detection target object matching conditions information based on the point group on the reference surface from among the point group in the monitoring area. The detection unit includes: a detection conditions specification unit for specifying detection conditions of a detection target object candidate; a detection processing unit for detecting a detection target object candidate satisfying the detection conditions based on the point group in the monitoring area; an exclusion conditions specification unit for specifying exclusion conditions including a specific form of part of detection exclusion objects; and an exclusion processing unit for excluding the detection exclusion object matching the exclusion conditions from the detection target object candidate based on the point group related to the detection target object candidate.SELECTED DRAWING: Figure 7

Description

本発明は、物体検出装置、システム、方法、及びプログラムに関する。 The present invention relates to an object detection device, system, method, and program.

鉄道会社では、点検中の線路への作業員等の侵入、特に、列車通過時の線路及びその周辺にいる物体を確認して、鉄道線路工事中の安全管理補助を実現したいというニーズがある。確認したい物体には、単純に人だけでなく作業車両(例えば、軌陸車)が含まれる。列車に関しては、当然、線路への侵入を許容して、確認したい物体から除外したい。このようなニーズに応えるために、3次元センサを活用して監視領域(監視空間)内の物体を検出する技術が存在する(例えば、特許文献1、2参照)。さらに、検出された物体の寸法、体積、移動有無などの条件によって検出の要否を切り替えることが可能な技術も存在する(例えば、特許文献3参照)。 In railway companies, there is a need to realize safety management assistance during railway track construction by checking for workers or the like entering the track under inspection, especially for objects on the track and its surroundings when a train is passing. Objects to be checked include not only people, but also work vehicles (eg, rail vehicles). For trains, of course, we want to allow them to enter the tracks and exclude them from the objects we want to check. In order to meet such needs, there are techniques for detecting an object within a monitored area (monitored space) using a three-dimensional sensor (see Patent Documents 1 and 2, for example). Furthermore, there is also a technique that can switch the necessity of detection depending on conditions such as the size, volume, and presence or absence of movement of a detected object (see, for example, Patent Document 3).

特開2005-214718号公報JP 2005-214718 A 特開2018-90099号公報JP 2018-90099 A 特開2021-60784号公報JP 2021-60784 A

以下の分析は、本願発明者により与えられる。 The following analysis is given by the inventors.

しかしながら、物体が監視領域(監視空間)内に全体が存在しない場合(例えば、監視領域に物体の一部のみが入った場合)や、物体が3次元センサから遠くて撮像された当該物体に係る点群に大きく疎な部分が存在する場合のように、監視領域内の物体に係る情報が部分的又は疎な場合に、特許文献1~3に記載の技術では、監視領域内の類似する物体(例えば、軌陸車と列車)を識別して検出することが難しい。 However, when the entire object does not exist within the monitoring area (monitored space) (for example, when only part of the object enters the monitoring area), or when the object is far from the 3D sensor and is imaged, When the information about the object in the monitoring area is partial or sparse, such as when the point cloud has a large sparse part, the techniques described in Patent Documents 1 to 3 can detect similar objects in the monitoring area. (e.g. rail vehicles and trains) are difficult to discriminate and detect.

本発明の主な課題は、監視領域内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる物体検出装置、システム、方法、及びプログラムを提供することである。 A main object of the present invention is to provide an object detection apparatus, system, method, and program that can contribute to identifying and detecting an object even when information about the object in the monitoring area is partial or sparse. to provide.

第1の視点に係る物体検出装置は、ユーザの操作を受けるように構成された入力部と、前記入力部からの指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するように構成された監視領域指定部と、前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するように構成された基準面決定部と、前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、前記入力部からの条件情報に合致した検出対象物体を選択的に検出するように構成された検出部と、を備え、前記検出部は、前記条件情報に基づいて検出対象物体候補の検出条件を指定するように構成された検出条件指定部と、前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するように構成された検出処理部と、前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成された除外条件指定部と、検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するように構成された除外処理部と、を備える。 An object detection apparatus according to a first viewpoint includes an input unit configured to receive a user's operation, and a monitoring area for three-dimensional point cloud data related to a site based on designation information from the input unit. a monitoring area specifying unit configured to specify a monitoring area; a reference plane determining unit configured to determine a reference plane based on a point group within the monitoring area in the three-dimensional point cloud data; and the three-dimensional point a detection unit configured to selectively detect a detection target object that matches the condition information from the input unit based on the point group on the reference plane among the point groups in the monitoring area in the group data; , wherein the detection unit includes a detection condition specifying unit configured to specify a detection condition for the detection target object candidate based on the condition information; and a point cloud within the monitoring region in the three-dimensional point cloud data. a detection processing unit configured to detect a detection target object candidate that satisfies the detection condition based on; and an exclusion condition designating unit configured to exclude detection-excluded objects that match the specified exclusion condition from the detection-target object candidates based on the detected point group related to the detection-target-object candidates. an exclusion processor configured to determine an object to be detected.

第2の視点に係る物体検出システムは、前記第1の視点に係る物体検出装置と、前記物体検出装置と通信可能に接続されるとともに、現場を撮影する3次元センサと、を備える。 An object detection system relating to a second viewpoint includes an object detection device relating to the first viewpoint, and a three-dimensional sensor communicably connected to the object detection device and capturing an image of a scene.

第3の視点に係る物体検出方法は、ハードウェア資源を用いて物体を検出する物体検出方法であって、入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するステップと、前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するステップと、前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出するステップと、を含み、前記検出するステップでは、前記条件情報に基づいて検出対象物体候補の検出条件を指定するステップと、前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するステップと、前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するステップと、検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するステップと、を含む。 An object detection method relating to a third viewpoint is an object detection method for detecting an object using hardware resources. determining a reference plane based on a point group within the monitoring area in the three-dimensional point cloud data; and selectively detecting a detection target object that matches the input condition information based on the above point cloud, wherein the detection step includes detection conditions for detection target object candidates based on the condition information. a step of detecting a detection target object candidate that satisfies the detection condition based on the point group in the monitoring region in the three-dimensional point cloud data; and a step of detecting a detection exclusion object based on the condition information designating an exclusion condition including a part of a specific form; and removing a detection exclusion object that matches the specified exclusion condition from the detection target object candidate based on the point group related to the detected detection target object candidate. and determining the object to be detected by exclusion processing.

第4の視点に係るプログラムは、物体を検出する処理をハードウェア資源に実行させるプログラムであって、入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定する処理と、前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定する処理と、前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出する処理と、を前記ハードウェア資源に実行させ、前記検出する処理では、前記条件情報に基づいて検出対象物体候補の検出条件を指定する処理と、前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出する処理と、前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する処理と、検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定する処理と、を実行する。 A program related to a fourth viewpoint is a program that causes a hardware resource to execute processing for detecting an object, and designates a monitoring area for 3D point cloud data related to the site based on input designation information. a process of determining a reference plane based on the point group within the monitoring area in the three-dimensional point cloud data; and a process of selectively detecting a detection target object that matches input condition information based on the point cloud; A process of designating detection conditions for candidates; a process of detecting detection target object candidates that satisfy the detection conditions based on the point group within the monitoring region in the three-dimensional point cloud data; and based on the condition information, A process of designating an exclusion condition including a part of the peculiar form of the detection exclusion object, and detecting the detection exclusion object that matches the specified exclusion condition based on the point cloud related to the detected detection target object candidate. and a process of determining the detection target object by excluding it from target object candidates.

なお、プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。また、本開示では、コンピュータプログラム製品として具現することも可能である。プログラムは、コンピュータ装置に入力装置又は外部から通信インタフェイスを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェイスを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備える。 Note that the program can be recorded in a computer-readable storage medium. The storage medium can be non-transient such as semiconductor memory, hard disk, magnetic recording medium, optical recording medium, and the like. The present disclosure may also be embodied as a computer program product. A program is input to a computer device via an input device or an external communication interface, is stored in a storage device, drives a processor in accordance with predetermined steps or processes, and stages the results of processing including intermediate states as necessary. can be displayed via a display device, or can be communicated with the outside via a communication interface. A computer device for this purpose, as an example, typically includes a processor, a storage device, an input device, a communication interface, and optionally a display device, all of which are connectable to each other by a bus.

前記第1~第4の視点によれば、監視領域内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる。 According to the first to fourth viewpoints, it is possible to contribute to identifying and detecting an object even when information about the object within the monitoring area is partial or sparse.

実施形態1に係る物体検出システムを用いて物体を検出する例を示したイメージ図である。FIG. 2 is an image diagram showing an example of detecting an object using the object detection system according to Embodiment 1; 実施形態1に係る物体検出システムの構成を模式的に示したブロック図である。1 is a block diagram schematically showing the configuration of an object detection system according to Embodiment 1; FIG. 実施形態1に係る物体検出システムにおける除外処理部の構成を模式的に示したブロック図である。4 is a block diagram schematically showing the configuration of an exclusion processing unit in the object detection system according to Embodiment 1; FIG. 実施形態1に係る物体検出システムにおける物体検出装置の動作を模式的に示したフローチャートである。4 is a flowchart schematically showing the operation of the object detection device in the object detection system according to Embodiment 1; 実施形態1に係る物体検出システムの物体検出装置の除外処理の詳細を模式的に示したフローチャートである。7 is a flowchart schematically showing details of exclusion processing of an object detection device of the object detection system according to the first embodiment; 比較例に係る物体検出システムを用いて物体を検出する例を示したイメージ図である。FIG. 10 is an image diagram showing an example of detecting an object using an object detection system according to a comparative example; 実施形態2に係る物体検出装置の構成を模式的に示したブロック図である。2 is a block diagram schematically showing the configuration of an object detection device according to Embodiment 2; FIG. ハードウェア資源の構成を模式的に示したブロック図である。3 is a block diagram schematically showing the configuration of hardware resources; FIG.

以下、実施形態について図面を参照しつつ説明する。なお、本出願において図面参照符号を付している場合は、それらは、専ら理解を助けるためのものであり、図示の態様に限定することを意図するものではない。また、下記の実施形態は、あくまで例示であり、本発明を限定するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インタフェイスも同様である。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備え、コンピュータ装置は、通信インタフェイスを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。 Hereinafter, embodiments will be described with reference to the drawings. It should be noted that when reference numerals are attached to the drawings in this application, they are solely for the purpose of helping understanding, and are not intended to limit the embodiments shown in the drawings. Moreover, the following embodiments are only examples, and do not limit the present invention. Also, connection lines between blocks in drawings and the like referred to in the following description include both bidirectional and unidirectional connections. The unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality. Furthermore, in the circuit diagrams, block diagrams, internal configuration diagrams, connection diagrams, etc. disclosed in the present application, an input port and an output port exist at the input end and the output end of each connection line, respectively, although not explicitly shown. The input/output interface is the same. The program is executed via a computer device, and the computer device includes, for example, a processor, a storage device, an input device, a communication interface, and optionally a display device. It is configured to be able to communicate with external devices (including computers), whether wired or wireless.

[実施形態1]
実施形態1に係る物体検出システムについて図面を用いて説明する。図1は、実施形態1に係る物体検出システムを用いて物体を検出する例を示したイメージ図である。図2は、実施形態1に係る物体検出システムの構成を模式的に示したブロック図である。図3は、実施形態1に係る物体検出システムにおける除外処理部の構成を模式的に示したブロック図である。
[Embodiment 1]
An object detection system according to Embodiment 1 will be described with reference to the drawings. FIG. 1 is an image diagram showing an example of detecting an object using the object detection system according to the first embodiment. FIG. 2 is a block diagram schematically showing the configuration of the object detection system according to Embodiment 1. FIG. 3 is a block diagram schematically showing the configuration of an exclusion processing unit in the object detection system according to the first embodiment; FIG.

物体検出システム1は、撮影現場10に仮想的に設定された監視領域20における所定の物体(検出除外物体;図1では列車23、24)を選択的に除外して、監視領域20における所定の物体以外の物体(検出対象物体;図1では作業員21、軌陸車22)を検出するシステムである(図1、図2参照)。物体検出システム1は、列車23、24を除外する場合であれば、安全監視の分野で、遮断機が降りた踏切(監視領域)内に侵入している物体(例えば、通行人)の検出や、踏切内で立ち往生している物体(例えば、自動車)の検出において、列車23、24を除外して利用することができる。また、物体検出システム1は、一般車とバスを切り分け、バスのみ除外することにより、交通インフラ分野においてバスターミナル(監視領域)に侵入してくる一般車を検出して警告を発するといった場合にも利用することができる。物体検出システム1は、物体検出装置200と、3次元センサ300と、を備える。 The object detection system 1 selectively excludes predetermined objects (objects excluded from detection; trains 23 and 24 in FIG. It is a system for detecting objects other than objects (objects to be detected; worker 21 and road-rail vehicle 22 in FIG. 1) (see FIGS. 1 and 2). If the object detection system 1 excludes the trains 23 and 24, in the field of safety surveillance, it is possible to detect an object (for example, a passerby) intruding into a railroad crossing (monitoring area) where the barrier has exited. , excluding trains 23, 24 in the detection of stranded objects (eg, automobiles) in railroad crossings. In addition, the object detection system 1 separates general vehicles from buses and excludes only buses, so that it can detect general vehicles entering a bus terminal (monitoring area) in the field of transportation infrastructure and issue a warning. can be used. The object detection system 1 includes an object detection device 200 and a 3D sensor 300 .

物体検出装置200は、3次元センサ300で撮影された撮影現場10の3次元点群データ100に基づいて、監視領域20における所定の物体(検出除外物体;図1では列車23、24)を選択的に除外して、監視領域20における所定の物体以外の物体(検出対象物体;図1では作業員21、軌陸車22)を検出する装置である(図1、図2参照)。物体検出装置200は、撮影現場10における監視領域20以外の領域に存在する物体(非検出対象物体;図1では作業員25)を検出しないようにすることができる。物体検出装置200には、コンピュータを構成する機能部(例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び表示装置)を備えた端末(コンピュータ端末)を用いることができ、例えば、パーソナルコンピュータ、サーバ、タブレット端末、スマートフォンなどを用いることができる。物体検出装置200は、3次元センサ300と直接的又は間接的に通信可能(無線通信可能、有線通信可能)に接続されており、ネットワーク(図示せず)を介して3次元センサ300と通信可能に接続してもよい。物体検出装置200は、所定のプログラムを実行することによって、前処理部210と、監視領域指定部220と、基準面決定部230と、検出部240と、結果生成部260と、ユーザインタフェイス部270と、を備えた構成を実現する。 The object detection device 200 selects predetermined objects (objects excluded from detection; trains 23 and 24 in FIG. 1) in the monitoring area 20 based on the three-dimensional point cloud data 100 of the shooting scene 10 photographed by the three-dimensional sensor 300. It is a device for detecting objects (objects to be detected; worker 21 and road-rail vehicle 22 in FIG. 1) other than predetermined objects in the monitoring area 20 by physically excluding them (see FIGS. 1 and 2). The object detection device 200 can be configured not to detect an object (non-detection target object; worker 25 in FIG. 1) existing in an area other than the monitoring area 20 at the shooting site 10 . For the object detection device 200, a terminal (computer terminal) having functional units (eg, a processor, a storage device, an input device, a communication interface, and a display device) constituting a computer can be used. , a server, a tablet terminal, a smartphone, or the like can be used. The object detection device 200 is directly or indirectly connected to the three-dimensional sensor 300 so as to be communicable (wireless or wired), and can communicate with the three-dimensional sensor 300 via a network (not shown). may be connected to By executing a predetermined program, the object detection apparatus 200 includes a preprocessing unit 210, a monitoring area designating unit 220, a reference plane determining unit 230, a detecting unit 240, a result generating unit 260, and a user interface unit. 270 and .

前処理部210は、入力された3次元点群データ100に対して前処理(データ整形)を行う機能部である(図2参照)。前処理部210で処理された3次元点群データ100は、ユーザインタフェイス部270の出力部271で表示出力させることができる。前処理部210は、フォーマット変換部211と、ノイズ除去部212と、を備える。 The preprocessing unit 210 is a functional unit that performs preprocessing (data shaping) on the input three-dimensional point cloud data 100 (see FIG. 2). The 3D point cloud data 100 processed by the preprocessing unit 210 can be displayed and output by the output unit 271 of the user interface unit 270 . The preprocessing section 210 includes a format conversion section 211 and a noise removal section 212 .

フォーマット変換部211は、前処理として、入力された3次元点群データ100のフォーマットを、物体検出装置200において共通に使える共通フォーマットに変換する機能部である(図2参照)。フォーマット変換部211は、変換された共通フォーマットの3次元点群データ100を、ノイズ除去部212に向けて出力する。なお、3次元点群データ100のフォーマットがもともと共通フォーマットの場合は、フォーマット変換部211でのフォーマット変換処理をスキップしてもよい。 The format conversion unit 211 is a functional unit that converts the format of the input three-dimensional point cloud data 100 into a common format commonly used in the object detection device 200 as preprocessing (see FIG. 2). The format conversion unit 211 outputs the converted common format three-dimensional point cloud data 100 to the noise removal unit 212 . Note that if the format of the three-dimensional point cloud data 100 is originally a common format, the format conversion processing in the format conversion unit 211 may be skipped.

ノイズ除去部212は、前処理として、フォーマット変換部211からの3次元点群データ100における点群の中からノイズ(検出に不要な点群)を除去する機能部である(図2参照)。ノイズ除去部212は、ノイズが除去された3次元点群データ100を、監視領域指定部220、基準面決定部230、及びユーザインタフェイス部270に向けて出力する。ノイズ除去方法として、例えば、平滑化処理、フィルタリング(例えば、移動平均フィルタ処理、メディアンフィルタ処理など)、外れ値除去処理(例えば、カイの二乗検定による外れ値除去処理)などが挙げられる。なお、ノイズがほとんどない状態であれば、ノイズ除去部212でのノイズ除去処理をスキップしてもよい。 The noise removal unit 212 is a functional unit that removes noise (point groups unnecessary for detection) from point groups in the three-dimensional point group data 100 from the format conversion unit 211 as preprocessing (see FIG. 2). The noise removal unit 212 outputs the noise-removed three-dimensional point cloud data 100 to the monitoring region designation unit 220 , the reference plane determination unit 230 , and the user interface unit 270 . Noise removal methods include, for example, smoothing processing, filtering (eg, moving average filter processing, median filter processing, etc.), outlier removal processing (eg, outlier removal processing by chi-square test), and the like. It should be noted that if there is almost no noise, the noise removal processing in the noise removal unit 212 may be skipped.

監視領域指定部220は、撮影現場(図1の10)に係る3次元点群データ100において監視領域20を指定する機能部である(図2参照)。監視領域20は、複数指定し、切り替えられるようにしてもよい。切り替えは、手動だけでなく、特定時間やタイマーによる自動切り替えでもよい。監視領域指定部220は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて監視領域20を指定する。指定された監視領域20は、記憶される。なお、3次元点群データ100の全領域が監視領域20である場合には、監視領域20の指定をスキップすることができる。監視領域指定部220で指定された監視領域20は、ユーザインタフェイス部270の出力部271で表示出力させることができる。監視領域指定部220は、範囲指定部221と、角度指定部222と、を備える。 The monitoring area designation unit 220 is a functional unit that designates the monitoring area 20 in the three-dimensional point cloud data 100 relating to the shooting site (10 in FIG. 1) (see FIG. 2). A plurality of monitoring areas 20 may be designated and switched. The switching may be performed not only manually but also automatically at a specific time or by a timer. The monitoring area designation unit 220 designates the monitoring area 20 based on the designation information from the input unit 272 of the user interface unit 270 input by the user's operation. The designated monitoring area 20 is stored. If the entire area of the three-dimensional point cloud data 100 is the monitoring area 20, designation of the monitoring area 20 can be skipped. The monitoring area 20 specified by the monitoring area specifying section 220 can be displayed and output by the output section 271 of the user interface section 270 . The monitoring area specifying section 220 includes a range specifying section 221 and an angle specifying section 222 .

範囲指定部221は、3次元点群データ100の撮像全景における監視対象となる一部の領域(監視領域20)の範囲(幅、奥行き、高さ)を指定する機能部である(図2参照)。範囲指定部221は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、監視領域20の範囲を指定する。範囲指定部221は、指定された監視領域20の範囲に係る情報を基準面決定部230及び検出部240に向けて出力する。 The range specifying unit 221 is a functional unit that specifies the range (width, depth, and height) of a partial area (monitoring area 20) to be monitored in the captured panoramic view of the three-dimensional point cloud data 100 (see FIG. 2). ). The range designating section 221 designates the range of the monitoring area 20 based on the designation information from the input section 272 of the user interface section 270 input by the user's operation. The range specifying unit 221 outputs information about the specified range of the monitoring area 20 to the reference plane determining unit 230 and the detecting unit 240 .

角度指定部222は、3次元点群データ100の点群を所定の座標点(指定した任意の座標点でも可)を中心に回転させる角度を指定する機能部である(図2参照)。角度指定部222は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、点群を回転させる角度を指定する。角度指定部222による点群を回転させる角度の指定は、範囲指定部221による監視領域20の範囲の指定を補助するものである。点群の回転が不要であれば、角度指定部222を省略したり、角度の指定をスキップするようにしてもよい。角度指定部222は、指定された角度に係る情報を基準面決定部230及び検出部240に向けて出力する。なお、指定された角度に係る情報は、指定された監視領域20の範囲に係る情報とは独立したものである。 The angle specifying unit 222 is a functional unit that specifies an angle for rotating the point group of the three-dimensional point cloud data 100 about a predetermined coordinate point (or any specified coordinate point) (see FIG. 2). The angle designation unit 222 designates the angle for rotating the point cloud based on the designation information from the input unit 272 of the user interface unit 270 input by the user's operation. The specification of the angle for rotating the point group by the angle specification unit 222 assists the specification of the range of the monitoring area 20 by the range specification unit 221 . If rotation of the point group is unnecessary, the angle specifying section 222 may be omitted or the angle specification may be skipped. The angle designating section 222 outputs information about the designated angle to the reference plane determining section 230 and the detecting section 240 . Information about the specified angle is independent of information about the range of the specified monitoring area 20 .

基準面決定部230は、監視領域20における基準面(図1では地面14)を決定する機能部である(図2参照)。基準面は、複数決定し、切り替えられるようにしてもよい。切り替えは手動だけでなく、特定時間やタイマーによる自動切り替えでもよい。基準面は、水平な地面、床面だけでなく、坂道、空中に設定してもよい。これにより、地面上での車や人の監視だけでなく、鳥類やドローンなどを監視することができる。決定された基準面は、記憶される。基準面決定部230で決定された基準面は、ユーザインタフェイス部270の出力部271で表示出力させることができる。基準面決定部230は、平面検出部231と、基準面選択部232と、基準面記憶部233と、を備える。 The reference plane determination unit 230 is a functional unit that determines the reference plane (ground 14 in FIG. 1) in the monitoring area 20 (see FIG. 2). A plurality of reference planes may be determined and switched. The switching may be performed not only manually, but also automatically at a specific time or by a timer. The reference plane may be set not only on a horizontal ground or floor, but also on a slope or in the air. This makes it possible to monitor not only cars and people on the ground, but also birds and drones. The determined reference plane is stored. The reference plane determined by the reference plane determining section 230 can be displayed and output by the output section 271 of the user interface section 270 . The reference plane determination section 230 includes a plane detection section 231 , a reference plane selection section 232 and a reference plane storage section 233 .

平面検出部231は、3次元点群データ100における監視領域20内の点群に基づいて1つ以上の平面(例えば、予め設定された面積以上の平面;図1では地面14)を検出する機能部である(図2参照)。平面検出部231は、前処理部210で前処理された3次元点群データ100を取得し、監視領域指定部220で指定された監視領域20に係る情報(範囲、角度)を取得する。平面検出部231は、指定された範囲で3次元点群データ100に監視領域20を設定し、指定された角度で3次元点群データ100(監視領域20を含む)の点群を回転させた画像を作成してもよい。平面検出部231は、3次元点群データ100における監視領域20内の点群の中から1つ以上の平面を検出(検索)する。平面検出部231は、検出する平面の種類(例えば、水平面、垂直面、傾斜面、監視領域20の範囲の境界面など)を予め設定しておいて、設定した種類の平面を選択的に検出するようにしてもよい。なお、3次元センサ300の特性によっては取得できる座標の誤差のバラつきから実際の平面が撮像では波打つような点群となる場合があるが、その場合、平面検出部231の設定において、平面と認識する各点群間の誤差閾値の指定範囲を大きくするように設定することで、波打ちの影響を小さくして平面を検出することができる。 The plane detection unit 231 has a function of detecting one or more planes (for example, a plane having an area equal to or larger than a preset area; the ground 14 in FIG. 1) based on the point cloud within the monitoring region 20 in the three-dimensional point cloud data 100. part (see FIG. 2). The plane detection unit 231 acquires the 3D point cloud data 100 preprocessed by the preprocessing unit 210 and acquires information (range, angle) related to the monitoring area 20 specified by the monitoring area specifying unit 220 . The plane detection unit 231 sets the monitoring region 20 in the 3D point cloud data 100 within the specified range, and rotates the point cloud of the 3D point cloud data 100 (including the monitoring region 20) at the specified angle. You can create an image. The plane detection unit 231 detects (searches) one or more planes from point groups within the monitoring region 20 in the three-dimensional point group data 100 . The plane detection unit 231 presets the types of planes to be detected (for example, horizontal planes, vertical planes, inclined planes, boundary planes within the range of the monitoring area 20, etc.), and selectively detects planes of the set types. You may make it Depending on the characteristics of the three-dimensional sensor 300, the actual plane may become a wavy point group in imaging due to variations in the errors in the coordinates that can be acquired. By setting the specified range of the error threshold between each point group to be large, the plane can be detected with less influence of waviness.

基準面選択部232は、平面検出部231で検出された平面の中から基準面を選択する機能部である(図2参照)。基準面選択部232は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの選択情報に基づいて基準面を選択する。基準面選択部232は、平面検出部231によらないある特定の平面情報を床面として指定することができる。 The reference plane selection unit 232 is a functional unit that selects a reference plane from the planes detected by the plane detection unit 231 (see FIG. 2). The reference plane selection unit 232 selects a reference plane based on selection information from the input unit 272 of the user interface unit 270 input by the user's operation. The reference plane selection unit 232 can designate specific plane information that is not based on the plane detection unit 231 as the floor plane.

基準面記憶部233は、基準面選択部232で選択された基準面に係る情報を記憶する機能部である(図2参照)。基準面記憶部233に記憶された基準面に係る情報は、検出部240において利用可能になる。 The reference plane storage unit 233 is a functional unit that stores information related to the reference plane selected by the reference plane selection unit 232 (see FIG. 2). Information related to the reference plane stored in the reference plane storage unit 233 can be used by the detection unit 240 .

検出部240は、3次元点群データ100における監視領域20内の点群のうち基準面(基準面決定部230で決定した基準面)上の点群に基づいて、検出対象物体を選択的に検出する機能部である(図2参照)。検出部240は、検出処理のために、RGB(Red-Green-Blue)画像も補助的に使ってもよい。検出部240は、検出条件指定部241と、検出処理部242と、除外条件指定部243と、除外処理部244と、を備える。 The detection unit 240 selectively detects a detection target object based on the point group on the reference plane (the reference plane determined by the reference plane determination unit 230) among the point groups in the monitoring region 20 in the three-dimensional point cloud data 100. It is a functional unit for detection (see FIG. 2). The detection unit 240 may additionally use an RGB (Red-Green-Blue) image for detection processing. The detection unit 240 includes a detection condition specifying unit 241 , a detection processing unit 242 , an exclusion condition specifying unit 243 and an exclusion processing unit 244 .

検出条件指定部241は、検出対象物体候補の検出条件を指定する機能部である(図2参照)。検出条件指定部241は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの条件情報に基づいて、検出対象物体候補の検出条件を指定する。検出対象物体候補の検出条件として、例えば、物体の寸法範囲や体積範囲の他、時系列で確認して動体を発見させる等の計算量の小さい条件(除外条件と比べて計算量の小さい条件)が挙げられる。なお、検出対象物体候補の検出条件は指定しなくてもよく、検出対象物体候補の検出条件の指定がない場合は、予め設定されている検出対象物体候補の検出条件を用いて、検出対象物体候補の検出条件の指定をスキップするようにしてもよい。 The detection condition designation unit 241 is a functional unit that designates detection conditions for detection target object candidates (see FIG. 2). The detection condition designation unit 241 designates detection conditions for detection target object candidates based on condition information from the input unit 272 of the user interface unit 270 that is input by a user's operation. Conditions for detection of candidate objects to be detected include, for example, size ranges and volume ranges of objects, as well as conditions with a small amount of calculation (conditions with a small amount of calculation compared to exclusion conditions), such as discovering moving objects by checking them in chronological order. is mentioned. Note that it is not necessary to specify the detection conditions for the detection target object candidates. Designation of candidate detection conditions may be skipped.

検出処理部242は、3次元点群データ100における監視領域20内の点群に基づいて、検出条件指定部241で指定された検出対象物体候補の検出条件を満たす検出対象物体候補を検出するように処理する機能部である(図2参照)。検出処理部242は、平面検出部231で作成された画像(3次元点群データ100に監視領域20を設定した画像)を用いるようにしてもよい。検出処理部242は、3次元点群データ100における監視領域20以外の領域の点群を削除し、かつ、監視領域20内の点群から、基準面選択部232で選択された基準面(図1では地面14)に係る点群を削除して、基準面上の各物体に係る点群を孤立させる。検出処理部242は、基準面上の各物体に係る点群を孤立させた監視領域20内の点群(基準面に係る点群は削除)に基づいて、セグメント化処理(点群のグループ分け)を実施し、1セグメント1物体として物体(検出対象物体候補の候補に相当)を検出する。検出対象物体候補の候補は、図1の例では、線路11、12、13、作業員21、軌陸車22、列車23、24となる。セグメント化処理では、例えば、隣り合う点間の距離が予め設定された所定の距離以内にある点群のまとまりを1つのセグメントとして処理することができる。検出処理部242は、1セグメント1物体として検出された物体に係る点群に基づいて、検出条件指定部241によって指定された検出対象物体候補の検出条件を満たす物体を検出対象物体候補として検出する。検出対象物体候補は、図1の例では、作業員21、軌陸車22、列車23、24となる。検出対象物体候補の検出では、AI(Artificial Intelligence)やパターンマッチングなどを利用してもよい。検出処理部242は、検出された検出対象物体候補に係る点群を記憶する。 The detection processing unit 242 detects detection target object candidates that satisfy the detection conditions for the detection target object candidates specified by the detection condition specifying unit 241 based on the point groups in the monitoring region 20 in the three-dimensional point cloud data 100 . (See FIG. 2). The detection processing unit 242 may use an image created by the plane detection unit 231 (an image in which the monitoring area 20 is set in the three-dimensional point cloud data 100). The detection processing unit 242 deletes the point groups of the areas other than the monitoring area 20 in the three-dimensional point cloud data 100, and extracts the reference plane (see figure In 1, the point cloud related to the ground 14) is deleted to isolate the point cloud related to each object on the reference plane. The detection processing unit 242 performs segmentation processing (grouping of the point cloud) based on the point cloud in the monitoring area 20 in which the point cloud of each object on the reference plane is isolated (the point cloud related to the reference plane is deleted). ) to detect an object (corresponding to a detection target object candidate) as one object in one segment. Candidates of detection target object candidates are the tracks 11, 12, and 13, the worker 21, the rail vehicle 22, and the trains 23 and 24 in the example of FIG. In the segmentation process, for example, a group of points in which the distance between adjacent points is within a predetermined distance can be processed as one segment. The detection processing unit 242 detects, as a detection target object candidate, an object that satisfies the detection conditions for the detection target object candidate specified by the detection condition specifying unit 241, based on the point cloud related to the object detected as one segment and one object. . The detection target object candidates are the worker 21, the rail vehicle 22, and the trains 23 and 24 in the example of FIG. AI (Artificial Intelligence), pattern matching, or the like may be used to detect detection target object candidates. The detection processing unit 242 stores point groups related to detected detection target object candidates.

除外条件指定部243は、除外条件(検出除外物体の検出条件)を指定する機能部である(図2参照)。除外条件指定部243は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する機能部である(図3参照)。除外条件として、検出除外物体の一部の特有(具体的、唯一)の形態、例えば、検出除外物体の一部の特有な形状や構造、検出除外物体の一部の平面(例えば、列車であれば上面、側面、運転席側の面、車掌席側の面等)の組み合わせ、基準線(例えば、線路、架線、道路、ケーブル等)に対する検出除外物体の一部の所定の平面(例えば、列車であれば運転席側の面、車掌席側の面)の特有な位置及び方向、検出除外物体の一部の所定の平面の特有な寸法範囲(例えば、垂直方向長さ範囲、水平方向長さ範囲等)等の計算量の大きい条件(検出対象物体候補の検出条件と比べて計算量の大きい条件)が挙げられる。除外条件の指定方法については、事前に撮影した3次元点群データ100から検出除外物体の形態を検出して選択又は調整することによって指定するようにしてもよい。除外条件の指定の際、RGB画像も補助的に使ってもよい。除外条件は、リストやデータベースに設定して記憶させる。除外条件の指定後においても、判定部252での判定結果を蓄積して機械学習して除外条件を更新するようにしてもよい。 The exclusion condition designation unit 243 is a functional unit that designates exclusion conditions (detection conditions for objects excluded from detection) (see FIG. 2). The exclusion condition specifying unit 243 is a functional unit that specifies an exclusion condition including a part of the peculiar form of the detection exclusion object based on the condition information from the input unit 272 of the user interface unit 270 input by the user's operation. (see FIG. 3). As exclusion conditions, some peculiar (concrete, unique) form of the detection exclusion object, for example, some peculiar shape or structure of the detection exclusion object, some plane of the detection exclusion object (e.g., top surface, side surface, driver side surface, conductor side surface, etc.), a predetermined plane (e.g., train characteristic position and orientation of the driver's side surface, conductor's side surface, if any), a characteristic dimension range of a predetermined plane of the part of the detection exclusion object (e.g., vertical length range, horizontal length range, etc.) that require a large amount of calculation (a condition that requires a large amount of calculation compared to the detection condition for the detection target object candidate). As for the method of specifying the exclusion condition, the configuration of the detection exclusion object may be detected from the three-dimensional point cloud data 100 photographed in advance, and may be selected or adjusted. An RGB image may also be used as a supplement when specifying exclusion conditions. The exclusion conditions are set and stored in a list or database. Even after specifying the exclusion condition, the determination result of the determination unit 252 may be accumulated and machine learning may be performed to update the exclusion condition.

除外処理部244は、検出処理部242で検出された検出対象物体候補に係る点群に基づいて、除外条件指定部243で指定された除外条件に合致した物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外処理して検出対象物体(図1では作業員21、軌陸車22)を決定する機能部である(図2、図3参照)。除外処理部244は、検出処理部242で検出された検出対象物体候補の全てを1つずつ除外処理する。なお、除外処理部244は、検出処理部242で検出処理した後に除外処理を行っているが、検出処理部242で検出処理する前に除外処理を行うようにしてもよい。除外処理部244は、形態検出部251と、判定部252と、除外部253と、を備える。 The exclusion processing unit 244 detects objects (detection exclusion objects; in FIG. 1, trains 23, 24) from the detection target object candidates to determine the detection target objects (the worker 21 and the rail vehicle 22 in FIG. 1) (see FIGS. 2 and 3). The exclusion processing unit 244 excludes all of the detection target object candidates detected by the detection processing unit 242 one by one. Although the exclusion processing unit 244 performs the exclusion processing after the detection processing by the detection processing unit 242, the exclusion processing may be performed before the detection processing by the detection processing unit 242. FIG. The exclusion processing unit 244 includes a form detection unit 251 , a determination unit 252 and an exclusion unit 253 .

形態検出部251は、検出処理部242で検出された全て検出対象物体候補に係る点群に基づいて各検出対象物体候補の形態(例えば、形状、平面、平面の位置及び方向、平面の寸法範囲等)を検出する機能部である(図3参照)。検出対象物体候補の形態の検出は、検出対象物体候補ごとに、検出対象物体候補に係る点群から可能な限り形態を検出する。 The form detection unit 251 detects the form of each detection target object candidate (for example, shape, plane, position and direction of the plane, size range of the plane, etc.) based on point groups related to all the detection target object candidates detected by the detection processing unit 242. etc.) (see FIG. 3). Detection of the form of the detection target object candidate is performed by detecting the form of each detection target object candidate as much as possible from the point group related to the detection target object candidate.

判定部252は、形態検出部251で検出された各検出対象物体候補の形態のうち、除外条件指定部243で指定された除外条件に該当するものがあるか否かを判定する機能部である(図3参照)。除外条件に該当するものがあるか否かの判定では、AI(Artificial Intelligence)やパターンマッチングなどを利用してもよい。該当するものがない場合、判定部252は、検出対象物体候補の全てを検出対象物体として決定する。 The determination unit 252 is a functional unit that determines whether or not there is a shape of each detection target object candidate detected by the shape detection unit 251 that corresponds to the exclusion condition specified by the exclusion condition specification unit 243. (See Figure 3). AI (Artificial Intelligence), pattern matching, or the like may be used to determine whether or not there is an exclusion condition. If there is no applicable object, the determination unit 252 determines all of the detection target object candidates as detection target objects.

除外部253は、判定部252で除外条件に該当すると判定された物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外して、検出対象物体(図1では作業員21、軌陸車22)を決定する機能部である(図3参照)。除外部253は、決定した検出対象物体(図1では作業員21、軌陸車22)の点群にラベル付けして追跡できるようにしてもよい。 The excluding unit 253 excludes objects (objects excluded from detection; trains 23 and 24 in FIG. 1) determined by the determining unit 252 to meet the exclusion conditions from the candidates for detection objects (workers in FIG. 1). 21, a functional unit that determines the track/road vehicle 22) (see FIG. 3). The exclusion unit 253 may label the point group of the determined object to be detected (the worker 21 and the road-rail vehicle 22 in FIG. 1) so that it can be tracked.

列車を除外する場合を例にすると、列車は多くの平面から構成されており、規格が概ね統一されていることから、3次元センサ300の3次元点群データ100から列車を含む物体を検出した後、そこから更に除外条件で指定された平面を検出し、かつ、検出された平面が列車の特有な形態(高さ、列車全体に占める割合、配置等)に該当することを判定することで、列車全体の寸法だけでなく、列車の一部の形態に基づいて検出対象物体候補から列車(検出除外物体)を除外することができる。 Taking the case of excluding trains as an example, since trains are composed of many planes and the standards are generally unified, objects including trains were detected from the 3D point cloud data 100 of the 3D sensor 300. After that, the plane specified by the exclusion condition is further detected from there, and it is determined that the detected plane corresponds to the specific form of the train (height, ratio to the whole train, arrangement, etc.) , trains (objects to be excluded from detection) can be excluded from detection target object candidates based not only on the dimensions of the entire train, but also on the shape of a part of the train.

なお、除外部253は、判定部252で除外条件に該当すると判定された形態に係る物体(検出除外物体)が存在する場合、当該検出除外物体が存在する監視空間内の全ての物体を除外するようにしてもよい。また、除外部253の代わりに、正規の検出結果とは異なる処置(例えば、利用者に通知)を施せる機能部を用いてもよい。 Note that, if there is an object (detection excluded object) having a form determined by the determination unit 252 to satisfy the exclusion condition, the exclusion unit 253 excludes all objects in the monitored space in which the detection excluded object exists. You may do so. Also, instead of the exclusion unit 253, a functional unit that can perform a different action (for example, notify the user) from the normal detection result may be used.

結果生成部260は、監視領域(図1の20)に係る情報、基準面に係る情報、及び、検出情報に基づいて、管理者に通知するための結果を生成(又は算出)する機能部である(図2参照)。結果生成部260は、監視領域指定部220からの監視領域20に係る情報を取得し、基準面決定部230からの基準面に係る情報を取得し、検出部240からの検出情報(少なくとも検出対象物体に係る情報)を取得する。生成される結果は、監視領域20の図形、基準面の図形、及び、検出情報の物体の図形や諸元(例えば、物体の寸法、体積、重心位置、移動速度等)とすることができる。結果生成部260は、生成された結果をユーザインタフェイス部270に向けて出力する。結果生成部260は、検出情報において検出対象物体(例えば、ラベル付きの検出対象物体)があるか否かを判定し、検出対象物体がある場合には、生成された結果とともに警告情報をユーザインタフェイス部270に向けて出力するようにしてもよい。結果生成部260は、諸元算出部261と、図形生成部262と、を備える。 The result generation unit 260 is a functional unit that generates (or calculates) a result to be notified to the administrator based on the information on the monitoring area (20 in FIG. 1), the information on the reference plane, and the detection information. (see Figure 2). The result generating unit 260 acquires information about the monitoring area 20 from the monitoring area designating unit 220, acquires information about the reference plane from the reference plane determining unit 230, and detects detection information (at least detection target) from the detecting unit 240. information about the object). The generated result can be the figure of the monitoring area 20, the figure of the reference plane, and the figure and specifications of the object of the detection information (for example, the size, volume, position of the center of gravity, moving speed, etc. of the object). The result generating section 260 outputs the generated result to the user interface section 270 . The result generation unit 260 determines whether or not there is a detection target object (for example, a labeled detection target object) in the detection information, and if there is a detection target object, displays warning information along with the generated result as a user interface. You may make it output toward the face part 270. FIG. The result generator 260 includes a specification calculator 261 and a figure generator 262 .

諸元算出部261は、検出情報に基づいて、諸元を算出する機能部である(図2参照)。算出される諸元として、例えば、検出対象物体(図1では作業員21、軌陸車22)の寸法、体積、重心位置、移動速度等が挙げられる。諸元算出部261は、算出された諸元を結果としてユーザインタフェイス部270に向けて出力する。 The specification calculator 261 is a functional unit that calculates specifications based on the detected information (see FIG. 2). The calculated specifications include, for example, the dimensions, volume, center-of-gravity position, moving speed, etc. of the object to be detected (the worker 21 and the road-rail vehicle 22 in FIG. 1). The specification calculation unit 261 outputs the calculated specifications to the user interface unit 270 as a result.

図形生成部262は、監視領域(図1の20)に係る情報、基準面に係る情報、及び、検出情報(検出条件、除外条件、検出結果を含む)に基づいて、図形を生成する機能部である(図2参照)。生成される図形として、例えば、監視領域20の図形、基準面の図形、及び、検出情報の図形(図1では検出枠61、62、物体の図形)等が挙げられる。図形は、位置を考慮して生成される。また、図形の生成では、監視領域20、基準面及び検出情報のうちの一部の要素の生成を省略することができる。なお、図形生成部262は、検出対象物体(図1では作業員21、軌陸車22)、検出除外物体(図1では列車23、24)、非検出対象物体(図1では作業員25)との違いを明確にするために、検出対象物体の図形のみを生成し、検出除外物体及び非検出対象物体の図形を生成しないようにしてもよい。図形生成部262は、生成された図形を結果としてユーザインタフェイス部270に向けて出力する。 The graphic generation unit 262 is a functional unit that generates a graphic based on information related to the monitoring area (20 in FIG. 1), information related to the reference plane, and detection information (including detection conditions, exclusion conditions, and detection results). (see FIG. 2). The generated graphics include, for example, the graphics of the monitoring area 20, the graphics of the reference plane, and the graphics of the detection information (the detection frames 61 and 62 and the graphics of the object in FIG. 1). A figure is generated taking into account the position. Also, in the generation of graphics, the generation of some of the elements of the monitoring area 20, the reference plane, and the detection information can be omitted. Note that the graphic generation unit 262 generates detection target objects (worker 21 and rail vehicle 22 in FIG. 1), detection exclusion objects (trains 23 and 24 in FIG. 1), and non-detection target objects (worker 25 in FIG. 1). In order to clarify the difference between the two, only the graphic of the detection target object may be generated, and the graphics of the detection exclusion object and the non-detection target object may not be generated. The graphic generation unit 262 outputs the generated graphic as a result to the user interface unit 270 .

ユーザインタフェイス部270は、ユーザと物体検出装置200との間の情報のやりとりを行う機能部である(図2参照)。ユーザインタフェイス部270は、出力部271と、入力部272と、を備える。 The user interface unit 270 is a functional unit that exchanges information between the user and the object detection device 200 (see FIG. 2). The user interface section 270 has an output section 271 and an input section 272 .

出力部271は、各種情報を出力(表示出力、音声出力、送信出力等)する機能部である(図2参照)。出力部271は、前処理部210のノイズ除去部212からの前処理後の3次元点群データ100を出力することができる。出力部271は、監視領域指定部220で抽出される監視領域20や、基準面決定部230による平面位置を出力してもよい。出力部271は、結果生成部260からの結果(図1の検出枠61、62、諸元等)、及び、警告情報(取得した場合)を出力することができる。警告情報の出力の仕方として、例えば、背景の色を変化又は点滅させて表示出力したり、警告音を音声出力したり、警報情報を利用者の端末に向けて送信出力することが挙げられる。出力された3次元点群データ100や結果については、スクリーンショット、数値データなどで保存するようにしてもよい。なお、結果生成部260からの結果については、検出対象物体の位置が明示できれば検出枠61、62でなくてもよく、同時に諸元算出部261で算出した任意の情報を同時に出力してもよい。 The output unit 271 is a functional unit that outputs various information (display output, audio output, transmission output, etc.) (see FIG. 2). The output unit 271 can output the preprocessed three-dimensional point cloud data 100 from the noise removal unit 212 of the preprocessing unit 210 . The output unit 271 may output the monitoring area 20 extracted by the monitoring area designating unit 220 or the plane position determined by the reference plane determining unit 230 . The output unit 271 can output the results from the result generation unit 260 (detection frames 61 and 62 in FIG. 1, specifications, etc.) and warning information (if acquired). As a method of outputting the warning information, for example, the background color may be changed or blinked for display output, a warning sound may be output by voice, or the warning information may be transmitted and output to the terminal of the user. The output three-dimensional point cloud data 100 and results may be saved as screen shots, numerical data, or the like. It should be noted that the results from the result generation unit 260 need not be the detection frames 61 and 62 as long as the position of the object to be detected can be specified, and at the same time arbitrary information calculated by the specification calculation unit 261 may be output at the same time. .

入力部272は、ユーザの操作を受ける機能部である(図2参照)。ユーザは、入力部272を操作(例えば、キーボード操作、マウスのクリック操作、タッチパネルのタップ操作等)することにより入力されたデータ(例えば、文字、数字、位置、領域等)を監視領域指定部220又は基準面決定部230若しくは検出部240に向けて出力する。入力部272は、ユーザの操作により入力された条件(幅、奥行き、高さ、角度)に係る情報を監視領域指定部220に出力する。入力部272は、ユーザの操作により、基準面決定部230において3次元点群データ100における監視領域(図1の20)の中の点群に基づいて検出された1つ以上の平面の中から基準面(図1では地面14)を選択するための指示を行う。入力部272は、ユーザの操作により入力された検出条件(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる等)や除外条件(検出除外物体の平面の位置及び方向、検出除外物体の平面の寸法範囲等)を検出部240に向けて出力する。入力部272は、ユーザの操作により、本構成機能における全体処理の開始・終了を指示する。 The input unit 272 is a functional unit that receives a user's operation (see FIG. 2). The user operates the input unit 272 (e.g., keyboard operation, mouse click operation, touch panel tap operation, etc.) to input data (e.g., characters, numbers, positions, areas, etc.) to the monitoring area designation unit 220 Alternatively, it outputs to the reference plane determining section 230 or the detecting section 240 . The input unit 272 outputs information related to the conditions (width, depth, height, angle) input by the user's operation to the monitoring area designating unit 220 . The input unit 272 selects one or more planes from among one or more planes detected by the reference plane determination unit 230 based on the point cloud in the monitoring area (20 in FIG. 1) in the three-dimensional point cloud data 100 by the user's operation. An instruction is given to select a reference plane (ground 14 in FIG. 1). The input unit 272 inputs detection conditions (for example, height range, size range, volume range, time series to find moving objects, etc.) and exclusion conditions (plane position of detection exclusion object). direction, dimension range of the detection exclusion object, etc.) to the detection unit 240 . The input unit 272 instructs the start/end of the overall processing in this configuration function by user's operation.

3次元センサ300は、被写体(図1では作業員21、25、軌陸車22、列車23、24、線路11、12、13、地面14等)の表面を3次元的にセンシングして撮影する装置である(図1、図2参照)。3次元センサ300は、物体検出装置200と通信可能に接続されている。3次元センサ300は、被写体を撮影することによって所定のフォーマットの3次元点群データ100を生成し、生成された3次元点群データ100を物体検出装置200に向けて出力する。なお、3次元点群データ100は、3次元センサ300で生成しないで、物体検出装置200で生成するようにしてもよい。3次元センサ300には、例えば、ToF(Time of Flight)カメラ、ステレオカメラ、3次元-LIDAR(Laser Imaging Detection And Ranging)、デプスセンサ、測距センサ、距離カメラ等を用いることができる。ここで、3次元点群データ100は、3次元センサ300によって所定のフォーマットで生成されたデータであり、点群(XYZ座標(3次元座標)情報を持った多数の点の集まり)で描画された点群データである(図2参照)。3次元センサ300は、ソリューションに必要な撮影距離、画角、屋内外、日照の有無などの環境条件や顧客の要望に応じて様々な出力形式のセンサ装置に変更することが可能である。3次元センサ300は、複数台(同種のセンサであるか否かは不問)あってもよく、複数の3次元点群データ100を物体検出装置200で合成して1台の3次元センサ300では不可能な広範囲の監視を行うようにしてもよい。また、3次元センサ300は、基準面との相対位置に変化がない範囲で移動してもよい。 The three-dimensional sensor 300 is a device that three-dimensionally senses and captures the surface of a subject (workers 21 and 25, track and road vehicle 22, trains 23 and 24, tracks 11, 12 and 13, ground 14, etc. in FIG. 1). (see FIGS. 1 and 2). The three-dimensional sensor 300 is communicably connected to the object detection device 200 . The three-dimensional sensor 300 generates three-dimensional point cloud data 100 in a predetermined format by photographing an object, and outputs the generated three-dimensional point cloud data 100 to the object detection device 200 . Note that the three-dimensional point cloud data 100 may be generated by the object detection device 200 instead of by the three-dimensional sensor 300 . For the three-dimensional sensor 300, for example, a ToF (Time of Flight) camera, a stereo camera, a three-dimensional LIDAR (Laser Imaging Detection And Ranging), a depth sensor, a ranging sensor, a range camera, or the like can be used. Here, the three-dimensional point cloud data 100 is data generated in a predetermined format by the three-dimensional sensor 300, and is drawn as a point cloud (collection of many points having XYZ coordinate (three-dimensional coordinate) information). This is the point cloud data (see Fig. 2). The three-dimensional sensor 300 can be changed to a sensor device with various output formats according to environmental conditions such as shooting distance, angle of view, indoors/outdoors, presence/absence of sunshine, etc. required for a solution, and customer requests. There may be a plurality of three-dimensional sensors 300 (whether or not they are of the same type). Impossible wide range monitoring may be performed. Also, the three-dimensional sensor 300 may move within a range where the relative position with respect to the reference plane does not change.

次に、実施形態1に係る物体検出システムにおける物体検出装置の動作について図面を用いて説明する。図4は、実施形態1に係る物体検出システムにおける物体検出装置の動作を模式的に示したフローチャートである。なお、物体検出システムの詳細な構成については図2及びその説明を参照されたい。 Next, the operation of the object detection device in the object detection system according to Embodiment 1 will be described with reference to the drawings. 4 is a flowchart schematically showing the operation of the object detection device in the object detection system according to the first embodiment; FIG. For the detailed configuration of the object detection system, see FIG. 2 and its description.

まず、物体検出装置200の前処理部210は、3次元センサ300で撮影された被写体の3次元点群データ100(監視領域20を含む領域の点群データ)を取得する(ステップA1)。 First, the preprocessing unit 210 of the object detection device 200 acquires the three-dimensional point cloud data 100 (the point cloud data of the area including the monitoring area 20) of the subject photographed by the three-dimensional sensor 300 (step A1).

次に、物体検出装置200の前処理部210のフォーマット変換部211は、前処理として、取得した3次元点群データ100のフォーマットを、物体検出装置200において共通に使える共通フォーマットに変換する(ステップA2)。 Next, as preprocessing, the format conversion unit 211 of the preprocessing unit 210 of the object detection device 200 converts the format of the acquired three-dimensional point cloud data 100 into a common format that can be used commonly in the object detection device 200 (step A2).

次に、物体検出装置200の前処理部210のノイズ除去部212は、前処理として、フォーマット変換部211でフォーマット変換された3次元点群データ100における点群の中からノイズを除去する(ステップA3)。 Next, as preprocessing, the noise removal unit 212 of the preprocessing unit 210 of the object detection device 200 removes noise from the point cloud in the three-dimensional point cloud data 100 format-converted by the format conversion unit 211 (step A3).

次に、物体検出装置200の監視領域指定部220は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、3次元点群データ100の撮像全景における監視領域20(範囲、回転角度)を指定する(ステップA4)。なお、最初に監視領域20を指定した後は、ステップA4をスキップすることができる。 Next, the monitoring area designating unit 220 of the object detection device 200 monitors the entire captured view of the three-dimensional point cloud data 100 based on the designation information from the input unit 272 of the user interface unit 270 input by the user's operation. A region 20 (range, rotation angle) is specified (step A4). After specifying the monitoring area 20 first, step A4 can be skipped.

次に、物体検出装置200の基準面決定部230は、3次元点群データ100の点群のうち監視領域にある点群の中から平面を検出し、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの選択情報に基づいて、検出された平面の中から基準面(例えば、地面14)を決定(選択)し、決定された基準面に係る情報を記憶する(ステップA5)。なお、最初に基準面を決定した後は、ステップA5をスキップすることができる。 Next, the reference plane determination unit 230 of the object detection device 200 detects a plane from the point group in the monitoring area among the point groups of the three-dimensional point group data 100, and detects the plane from the point group input by the user's operation. Based on the selection information from the input unit 272 of the unit 270, a reference plane (for example, the ground 14) is determined (selected) from among the detected planes, and information related to the determined reference plane is stored (step A5). ). Note that step A5 can be skipped after the reference plane is first determined.

次に、物体検出装置200の検出部240の検出条件指定部241は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、検出対象物体候補の検出条件(例えば、寸法範囲、体積範囲、時系列で確認して動体を発見させる等)を指定する(ステップA6)。なお、最初に検出対象物体候補の検出条件を指定した後は、ステップA6をスキップすることができる。また、検出対象物体候補の検出条件は指定しなくてもよく、検出条件の指定がない場合は、予め設定されている検出対象物体候補の検出条件を用いて、ステップA6をスキップすることができる。 Next, the detection condition designation unit 241 of the detection unit 240 of the object detection device 200 sets the detection conditions for the detection target object candidate based on the designation information from the input unit 272 of the user interface unit 270 input by the user's operation. (For example, a range of dimensions, a range of volumes, a time-series confirmation to find a moving object, etc.) are specified (step A6). Note that step A6 can be skipped after specifying the detection conditions for the detection target object candidate first. Further, it is not necessary to specify the detection conditions for the detection target object candidates, and if no detection conditions are specified, the preset detection conditions for the detection target object candidates can be used, and step A6 can be skipped. .

次に、物体検出装置200の検出部240の検出処理部242は、監視領域20内の点群に基づいて、指定された検出対象物体候補の検出条件を満たす検出対象物体候補を検出する(ステップA7)。 Next, the detection processing unit 242 of the detection unit 240 of the object detection device 200 detects detection target object candidates that satisfy the specified detection target object candidate detection condition based on the point group within the monitoring area 20 (step). A7).

次に、物体検出装置200の検出部240の除外条件指定部243は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、除外条件(検出除外物体の一部の特有な形態)を指定する(ステップA8)。なお、最初に除外条件を指定した後は、ステップA8をスキップすることができる。また、除外条件は指定しなくてもよく、検出条件の指定がない場合は、予め設定されている除外条件を用いて、ステップA8をスキップすることができる。 Next, the exclusion condition specifying unit 243 of the detection unit 240 of the object detection device 200 specifies an exclusion condition (detection exclusion object Some peculiar forms) are specified (step A8). Note that step A8 can be skipped after the exclusion condition is first specified. Moreover, the exclusion condition does not have to be specified, and if the detection condition is not specified, a preset exclusion condition can be used and step A8 can be skipped.

次に、物体検出装置200の検出部240の除外処理部244は、検出された検出対象物体候補に係る点群を解析し、指定された除外条件に合致した物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外して検出対象物体(図1では作業員21、軌陸車22)を決定する(ステップA9)。ステップA9の詳細は、後述する(図5参照)。 Next, the exclusion processing unit 244 of the detection unit 240 of the object detection device 200 analyzes the point group related to the detected detection target object candidate, and the object (detection exclusion object; trains 23 and 24) are excluded from the detection target object candidates, and the detection target objects (worker 21 and rail vehicle 22 in FIG. 1) are determined (step A9). Details of step A9 will be described later (see FIG. 5).

次に、物体検出装置200の結果生成部260は、検出部240での最新の検出結果に基づいて、管理者に通知するための結果を生成(又は算出)して出力部271から出力させる(ステップA10)。その後、ステップA1に戻り、新たな3次元点群データ100を取得する限り、ステップA1からステップA10のフローを繰り返し実行する。 Next, the result generation unit 260 of the object detection device 200 generates (or calculates) a result to be notified to the administrator based on the latest detection result of the detection unit 240, and causes the output unit 271 to output the result ( Step A10). Thereafter, the process returns to step A1, and the flow from step A1 to step A10 is repeatedly executed as long as new three-dimensional point cloud data 100 is obtained.

次に、実施形態1に係る物体検出システムにおける物体検出装置の除外処理(ステップA9)の詳細について図面を用いて説明する。図5は、実施形態1に係る物体検出システムの物体検出装置の除外処理の詳細を模式的に示したフローチャートである。なお、物体検出システムの詳細な構成については図2及びその説明を参照されたい。 Next, details of the object detection device exclusion process (step A9) in the object detection system according to the first embodiment will be described with reference to the drawings. FIG. 5 is a flowchart schematically showing details of exclusion processing of an object detection device of the object detection system according to the first embodiment. For the detailed configuration of the object detection system, see FIG. 2 and its description.

図4のステップA8の後の除外処理(ステップA9)では、まず、物体検出装置200の検出部240の除外処理部244の形態検出部251は、検出処理部242で検出された全て検出対象物体候補に係る点群に基づいて各検出対象物体候補の形態(例えば、形状、平面、平面の位置及び方向、平面の寸法範囲等)を検出する(ステップB1)。検出対象物体候補の形態の検出は、検出対象物体候補ごとに、検出対象物体候補に係る点群から可能な限り形態を検出する。 In the exclusion process (step A9) after step A8 in FIG. The form (eg, shape, plane, position and direction of the plane, size range of the plane, etc.) of each detection target object candidate is detected based on the point group of the candidate (step B1). Detection of the form of the detection target object candidate is performed by detecting the form of each detection target object candidate as much as possible from the point group related to the detection target object candidate.

次に、物体検出装置200の検出部240の除外処理部244の判定部252は、検出された各検出対象物体候補の形態のうち、除外条件指定部243で指定された除外条件に該当するものがあるか否かを判定する機能部である(ステップB2)。該当するものがない場合、検出対象物体候補の全てを検出対象物体として決定する。 Next, the determination unit 252 of the exclusion processing unit 244 of the detection unit 240 of the object detection device 200 selects, among the forms of detected detection target object candidates, those corresponding to the exclusion conditions specified by the exclusion condition specifying unit 243. (step B2). If there is no matching object, all the detection target object candidates are determined as detection target objects.

次に、物体検出装置200の検出部240の除外処理部244の除外部253は、判定部252で除外条件に該当すると判定された物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外して、検出対象物体(図1では作業員21、軌陸車22)を決定する(ステップB3)。その後、図4のステップA10に進むことになる。 Next, the exclusion unit 253 of the exclusion processing unit 244 of the detection unit 240 of the object detection device 200 detects objects (detection exclusion objects; trains 23 and 24 in FIG. 1) determined by the determination unit 252 to meet the exclusion conditions. Objects to be detected (the worker 21 and the road-rail vehicle 22 in FIG. 1) are determined by excluding them from the target object candidates (step B3). After that, the process proceeds to step A10 in FIG.

次に、実施形態1に係る物体検出システムにおける物体検出装置の動作を、比較例と対比しながら図面を用いて説明する。図6は、比較例に係る物体検出システムを用いて物体を検出する例を示したイメージ図である。なお、実施形態1に係る物体検出システムを用いて物体を検出する例については、図1を参照されたい。 Next, the operation of the object detection device in the object detection system according to Embodiment 1 will be described using the drawings while comparing with a comparative example. FIG. 6 is an image diagram showing an example of detecting an object using an object detection system according to a comparative example. Note that FIG. 1 should be referred to for an example of detecting an object using the object detection system according to the first embodiment.

比較例に係る物体検出システムは、実施形態1に係る物体検出システムの除外処理部(図2の244)がないシステムである。実施形態1に係る物体検出システムを用いて物体を検出したとき(図1参照)と同じ3次元点群データについて、比較例に係る物体検出システムを用いて物体を検出すると、図6のようになる。図1及び図6では、3条の線路11、12、13があり、奥側の2条の線路12、13について監視領域20が設定されており、線路12の軌陸車22の検出も行いたいために検出条件などは大きく設定している。 The object detection system according to the comparative example is a system without the exclusion processing unit (244 in FIG. 2) of the object detection system according to the first embodiment. For the same 3D point cloud data as when the object was detected using the object detection system according to the first embodiment (see FIG. 1), when the object is detected using the object detection system according to the comparative example, the result is as shown in FIG. Become. In FIGS. 1 and 6, there are three tracks 11, 12, 13, and a monitoring area 20 is set for the two tracks 12, 13 on the far side. Therefore, the detection conditions are set large.

しかしながら、図6の比較例では、除外処理がないので、検出条件に基づく検出処理のみでは、監視領域20の線路12の右端のように列車23の一部だけが入り込んだ状況で列車23を検出対象物体と誤検出してしまう可能性がある。また、図6の比較例では、線路13の左端のように、列車24の大部分は映り込んでいるものの、センサまでの距離や遮蔽物などが影響して、列車24の中間部の点群が途切れてしまった場合にも列車24を検出対象物体と誤検出してしまう可能性がある。 However, in the comparative example of FIG. 6, since there is no exclusion process, only the detection process based on the detection conditions detects the train 23 in a situation where only a part of the train 23 enters, such as the right end of the track 12 in the monitoring area 20. There is a possibility of erroneously detecting the target object. In the comparative example of FIG. 6, although most of the train 24 is reflected like the left end of the track 13, the point cloud of the middle part of the train 24 is affected by the distance to the sensor and the obstacles. is interrupted, the train 24 may be erroneously detected as an object to be detected.

ここで、軌陸車22は、列車23、24の車両1両の半分にも満たない長さではあるものの、線路11、12、13を走行する車両として列車23、24と共通しており、正面(運転席側の面、車掌席側の面)から見た場合(平面射影した場合)の縦横サイズが車両に酷似している。そのため、監視領域20の端に列車23、24の先頭部あるいは末尾部が撮影された場合(列車23、24の点群が監視領域20の端に位置する場合)や、列車23、24が3次元センサ300から遠くて撮像された3次元点群データに大きく疎な部分が存在した場合(遮蔽物などの影響で列車の点群が途切れた場合)、という少なくとも2つのケースで軌陸車22と列車23、24との識別が困難となり、列車23、24を軌陸車22と誤検出する可能性がある(図6参照)。また、監視領域20内の作業員21や軌陸車22の検出方法として、列車通過中は監視領域20を列車23、24が存在しない部分に限定し、列車通過後は再び全領域を元の監視領域20下にある状態に戻したいため、監視領域20の変更では誤検出に対処できない可能性がある。 Here, although the rail vehicle 22 is less than half the length of each vehicle of the trains 23 and 24, it is common to the trains 23 and 24 as a vehicle running on the tracks 11, 12 and 13. When viewed from (driver's seat side, conductor's seat side) (when projected on a plane), the vertical and horizontal sizes are very similar to the vehicle. Therefore, when the head or tail of the trains 23 and 24 is captured at the end of the monitoring area 20 (when the point group of the trains 23 and 24 is located at the end of the monitoring area 20), or when the trains 23 and 24 are three In at least two cases, when the three-dimensional point cloud data captured far from the dimensional sensor 300 has a large sparse part (when the train point cloud is interrupted due to the influence of a shield etc.) It becomes difficult to distinguish from the trains 23 and 24, and there is a possibility that the trains 23 and 24 are erroneously detected as the rail vehicle 22 (see FIG. 6). In addition, as a method of detecting the worker 21 and the rail vehicle 22 within the monitoring area 20, the monitoring area 20 is limited to a portion where the trains 23 and 24 do not exist while the train is passing, and the entire area is monitored again after the train is passing. Since we want to return to the state under the area 20, there is a possibility that the change of the monitoring area 20 cannot cope with the false detection.

一方、図1の実施形態1では、検出条件に基づいて検出処理を行って作業員21、軌陸車22、列車23、24を検出対象物体候補として検出し、その後、列車23、24の一部の形態(軌陸車22にはない列車23、24の特有の形態)を指定した除外条件を用いて除外処理することで、列車23、24を検出除外物体として選択的に除外することができ、作業員21、軌陸車22を検出対象物体として正しく検出することができる。また、図1の実施形態1では、寸法比較などの計算量の小さい条件による軽負荷な検出処理を行って検出物体数をふるいにかけておき、以降の除外処理に掛けられる母数を減少させた上で、複雑な物体個別の形態に基づく計算量の大きい除外条件による除外処理を行っているので、処理全体のリアルタイム性を損なうことなく検出対象物体の選択的な検出が行える。 On the other hand, in Embodiment 1 of FIG. 1, the detection process is performed based on the detection conditions to detect the worker 21, the rail vehicle 22, and the trains 23 and 24 as detection target object candidates. By performing exclusion processing using an exclusion condition that designates the form of the trains 23 and 24 (specific forms of the trains 23 and 24 not found in the rail vehicle 22), the trains 23 and 24 can be selectively excluded as detection exclusion objects, The worker 21 and the road-rail vehicle 22 can be correctly detected as objects to be detected. Further, in Embodiment 1 of FIG. 1, light-load detection processing is performed under conditions with a small amount of calculation, such as size comparison, and the number of detected objects is sieved to reduce the parameters used in subsequent exclusion processing. In addition, since exclusion processing is performed based on exclusion conditions that require a large amount of calculation based on complex forms of individual objects, it is possible to selectively detect detection target objects without impairing real-time performance of the entire processing.

実施形態1によれば、検出除外物体の一部の特有の形態を指定した除外条件に基づいて除外処理を行っているので、監視領域20内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる。図1の例では、3次元センサ300を活用して鉄道工事現場において監視領域20(危険領域)への侵入検出を実施する際、作業員21と軌陸車22のみを検出し、列車23、24は検出から除外することができる。 According to the first embodiment, the exclusion process is performed based on the exclusion condition that designates the particular shape of a part of the detection exclusion object. can also contribute to identifying and detecting objects. In the example of FIG. 1, when detecting an intrusion into the monitoring area 20 (dangerous area) at the railway construction site using the three-dimensional sensor 300, only the worker 21 and the rail vehicle 22 are detected, and the trains 23 and 24 are detected. can be excluded from detection.

また、実施形態1によれば、任意の物体を検出するための検出条件の指定、及び、検出しないための除外条件の指定が行えるので、物体の選択的な検出の正確性を向上させることができる。 In addition, according to the first embodiment, it is possible to specify a detection condition for detecting an arbitrary object and specify an exclusion condition for not detecting it, so it is possible to improve the accuracy of selective object detection. can.

[実施形態2]
実施形態2に係る物体検出装置について図面を用いて説明する。図7は、実施形態2に係る物体検出装置の構成を模式的に示したブロック図である。
[Embodiment 2]
An object detection device according to Embodiment 2 will be described with reference to the drawings. FIG. 7 is a block diagram schematically showing the configuration of the object detection device according to the second embodiment.

物体検出装置200は、現場の3次元点群データ100に基づいて、監視領域における検出除外物体を選択的に除外して、監視領域20における検出除外物体以外の検出対象物体を検出する装置である。物体検出装置200は、入力部272と、監視領域指定部220と、基準面決定部230と、検出部240と、を備える。 The object detection device 200 is a device that selectively excludes detection-excluded objects in the monitoring area based on the three-dimensional point cloud data 100 of the site, and detects detection target objects other than the detection-excluded objects in the monitoring area 20. . The object detection device 200 includes an input section 272 , a monitoring area designation section 220 , a reference plane determination section 230 and a detection section 240 .

入力部272は、ユーザの操作を受けるように構成されている。監視領域指定部220は、入力部272からの指定情報に基づいて、現場に係る3次元点群データ100に対して監視領域を指定するように構成されている。基準面決定部230は、3次元点群データ100における監視領域内の点群に基づいて基準面を決定するように構成されている。検出部240は、3次元点群データ100における監視領域内の点群のうち基準面上の点群に基づいて、入力部272からの条件情報に合致した検出対象物体を選択的に検出するように構成されている。 The input unit 272 is configured to receive a user's operation. The monitoring area designating section 220 is configured to designate a monitoring area for the three-dimensional point cloud data 100 relating to the site based on designation information from the input section 272 . The reference plane determination unit 230 is configured to determine a reference plane based on the point cloud within the monitoring region in the three-dimensional point cloud data 100 . The detection unit 240 selectively detects a detection target object that matches the condition information from the input unit 272, based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point cloud data 100. is configured to

検出部240は、検出条件指定部241と、検出処理部242と、除外条件指定部243と、除外処理部244と、を備える。検出条件指定部241は、条件情報に基づいて検出対象物体候補の検出条件を指定するように構成されている。検出処理部242は、3次元点群データ100における監視領域内の点群に基づいて、検出条件を満たす検出対象物体候補を検出するように構成されている。除外条件指定部243は、条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成されている。除外処理部244は、検出された検出対象物体候補に係る点群に基づいて、指定された除外条件に合致した検出除外物体を検出対象物体候補から除外処理して検出対象物体を決定するように構成されている。 The detection unit 240 includes a detection condition specifying unit 241 , a detection processing unit 242 , an exclusion condition specifying unit 243 and an exclusion processing unit 244 . The detection condition designation unit 241 is configured to designate detection conditions for detection target object candidates based on condition information. The detection processing unit 242 is configured to detect a detection target object candidate that satisfies the detection condition based on the point group within the monitoring area in the three-dimensional point group data 100 . The exclusion condition specifying unit 243 is configured to specify an exclusion condition including a part of the detection exclusion object's specific form based on the condition information. The exclusion processing unit 244 determines the detection target object by excluding the detection exclusion object that meets the specified exclusion condition from the detection target object candidate based on the point group related to the detected detection target object candidate. It is configured.

実施形態2によれば、検出除外物体の一部の特有の形態を含む除外条件に基づいて除外処理を行っているので、監視領域20内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる。 According to the second embodiment, the exclusion process is performed based on the exclusion condition including the specific shape of a part of the detection excluded object. It can contribute to identifying and detecting objects.

なお、実施形態1、2に係る物体検出装置は、いわゆるハードウェア資源(情報処理装置、コンピュータ)により構成することができ、図8に例示する構成を備えたものを用いることができる。例えば、ハードウェア資源1000は、内部バス1004により相互に接続される、プロセッサ1001、メモリ1002、ネットワークインタフェイス1003等を備える。 Note that the object detection apparatuses according to the first and second embodiments can be configured by so-called hardware resources (information processing apparatus, computer), and those having the configuration illustrated in FIG. 8 can be used. For example, hardware resource 1000 includes processor 1001 , memory 1002 , network interface 1003 , etc., which are interconnected by internal bus 1004 .

なお、図8に示す構成は、ハードウェア資源1000のハードウェア構成を限定する趣旨ではない。ハードウェア資源1000は、図示しないハードウェア(例えば、入出力インタフェイス)を含んでもよい。あるいは、装置に含まれるプロセッサ1001等のユニットの数も図8の例示に限定する趣旨ではなく、例えば、複数のプロセッサ1001がハードウェア資源1000に含まれていてもよい。プロセッサ1001には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等を用いることができる。 Note that the configuration shown in FIG. 8 is not intended to limit the hardware configuration of the hardware resource 1000 . The hardware resource 1000 may include hardware not shown (for example, an input/output interface). Alternatively, the number of units such as the processors 1001 included in the device is not limited to the illustration in FIG. For the processor 1001, for example, a CPU (Central Processing Unit), MPU (Micro Processor Unit), GPU (Graphics Processing Unit), or the like can be used.

メモリ1002には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いることができる。 For the memory 1002, for example, RAM (Random Access Memory), ROM (Read Only Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), etc. can be used.

ネットワークインタフェイス1003には、例えば、LAN(Local Area Network)カード、ネットワークアダプタ、ネットワークインタフェイスカード等を用いることができる。 For the network interface 1003, for example, a LAN (Local Area Network) card, network adapter, network interface card, or the like can be used.

ハードウェア資源1000の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ1002に格納されたプログラムをプロセッサ1001が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェアにおいてソフトウェアが実行されることによって実現できればよい。 The functions of the hardware resource 1000 are implemented by the processing modules described above. The processing module is implemented by the processor 1001 executing a program stored in the memory 1002, for example. Also, the program can be downloaded via a network or updated using a storage medium storing the program. Furthermore, the processing module may be realized by a semiconductor chip. In other words, the functions performed by the above processing modules may be realized by executing software in some kind of hardware.

上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described in the following appendices, but are not limited to the following.

[付記1]
ユーザの操作を受けるように構成された入力部と、
前記入力部からの指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するように構成された監視領域指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するように構成された基準面決定部と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、前記入力部からの条件情報に合致した検出対象物体を選択的に検出するように構成された検出部と、
を備え、
前記検出部は、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するように構成された検出条件指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するように構成された検出処理部と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成された除外条件指定部と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するように構成された除外処理部と、
を備える、
物体検出装置。
[付記2]
前記検出処理部は、
前記3次元点群データにおける前記監視領域以外の領域の点群を削除し、かつ、前記監視領域内の点群から前記基準面に係る点群を削除して点群のグループ分けを行う処理と、
グループ分けされた点群に基づいて1セグメント1物体として物体を検出する処理と、
検出された物体に係る点群に基づいて、前記検出条件を満たす物体を検出対象物体候補として検出する処理と、
を行うように構成されている、
付記1記載の物体検出装置。
[付記3]
前記除外処理部は、前記検出処理部で検出された前記検出対象物体候補の全てを1つずつ除外処理するように構成されている、
付記1又は2記載の物体検出装置。
[付記4]
前記除外処理部は、
検出された前記検出対象物体候補に係る点群に基づいて各前記検出対象物体候補の形態を検出するように構成された形態検出部と、
検出された各前記検出対象物体候補の形態のうち、前記除外条件に該当するものがあるか否かを判定するように構成された判定部と、
前記除外条件に該当すると判定された前記検出除外物体を検出対象物体候補から除外して、前記検出対象物体を決定するように構成された除外部と、
を備える、
付記1乃至3のいずれか一に記載の物体検出装置。
[付記5]
前記基準面決定部は、
前記3次元点群データにおける前記監視領域内の点群に基づいて1つ以上の平面を検出するように構成された平面検出部と、
前記入力部からの選択情報に基づいて、前記1つ以上の平面の中から少なくとも1つの前記基準面を選択するように構成された基準面選択部と、
を備える、
付記1乃至4のいずれか一に記載の物体検出装置。
[付記6]
少なくとも前記監視領域、前記基準面、前記検出条件、及び前記除外条件を用いて、前記検出対象物体の検出に関する結果を生成するように構成された結果生成部と、
少なくとも前記結果を出力するように構成された出力部と、
をさらに備える、
付記1乃至5のいずれか一に記載の物体検出装置。
[付記7]
前記検出処理部は、前記検出対象物体に係る点群にラベル付けを行うように構成され、
前記結果生成部は、前記ラベルの有無により前記検出対象物体の有無を判定し、前記検出対象物体がある場合には警告情報を生成するように構成され、
前記出力部は、前記警告情報を出力するように構成されている、
付記6記載の物体検出装置。
[付記8]
付記1乃至7のいずれか一に記載の物体検出装置と、
前記物体検出装置と通信可能に接続されるとともに、現場を撮影する3次元センサと、
を備える物体検出システム。
[付記9]
ハードウェア資源を用いて物体を検出する物体検出方法であって、
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するステップと、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出するステップと、
を含み、
前記検出するステップでは、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するステップと、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するステップと、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するステップと、
を含む、
物体検出方法。
[付記10]
物体を検出する処理をハードウェア資源に実行させるプログラムであって、
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定する処理と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出する処理と、
を前記ハードウェア資源に実行させ、
前記検出する処理では、
前記条件情報に基づいて検出対象物体候補の検出条件を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出する処理と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する処理と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定する処理と、
を実行する、
プログラム。
[Appendix 1]
an input unit configured to receive a user's operation;
a monitoring area designation unit configured to designate a monitoring area for three-dimensional point cloud data relating to a site based on designation information from the input unit;
a reference plane determination unit configured to determine a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
It is configured to selectively detect a detection target object that matches the condition information from the input unit based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data. a detector,
with
The detection unit is
a detection condition specifying unit configured to specify a detection condition for a detection target object candidate based on the condition information;
a detection processing unit configured to detect a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring region in the three-dimensional point cloud data;
an exclusion condition specifying unit configured to specify an exclusion condition including a particular form of a detection exclusion object based on the condition information;
The detection target object is determined by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate. an exclusion processing unit;
comprising
Object detection device.
[Appendix 2]
The detection processing unit is
a process of deleting point groups in areas other than the monitoring area in the three-dimensional point cloud data, and deleting point groups related to the reference plane from the point clouds in the monitoring area to group the point clouds; ,
A process of detecting an object as one segment and one object based on the grouped point cloud;
A process of detecting an object that satisfies the detection condition as a detection target object candidate based on a point cloud related to the detected object;
is configured to do
The object detection device according to appendix 1.
[Appendix 3]
The exclusion processing unit is configured to exclude all of the detection target object candidates detected by the detection processing unit one by one.
3. The object detection device according to appendix 1 or 2.
[Appendix 4]
The exclusion processing unit
a form detection unit configured to detect the form of each of the detection target object candidates based on the detected point cloud associated with the detection target object candidates;
a determination unit configured to determine whether or not there is a configuration of each of the detected detection target object candidates that satisfies the exclusion condition;
an exclusion unit configured to determine the detection target object by excluding the detection exclusion object determined to meet the exclusion condition from detection target object candidates;
comprising
4. The object detection device according to any one of appendices 1 to 3.
[Appendix 5]
The reference plane determination unit
a plane detector configured to detect one or more planes based on the point cloud within the monitored area in the three-dimensional point cloud data;
a reference plane selection unit configured to select at least one of the reference planes from among the one or more planes based on selection information from the input unit;
comprising
5. The object detection device according to any one of appendices 1 to 4.
[Appendix 6]
a result generation unit configured to generate a result regarding detection of the detection target object using at least the monitoring area, the reference plane, the detection condition, and the exclusion condition;
an output unit configured to output at least the result;
further comprising
6. The object detection device according to any one of Appendices 1 to 5.
[Appendix 7]
The detection processing unit is configured to label a point cloud related to the detection target object,
The result generation unit is configured to determine the presence or absence of the detection target object based on the presence or absence of the label, and to generate warning information when the detection target object is present,
The output unit is configured to output the warning information,
The object detection device according to appendix 6.
[Appendix 8]
The object detection device according to any one of Appendices 1 to 7;
a three-dimensional sensor that is communicatively connected to the object detection device and that captures a scene;
An object detection system comprising:
[Appendix 9]
An object detection method for detecting an object using hardware resources,
Designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
determining a reference plane based on a point cloud within the monitoring area in the three-dimensional point cloud data;
a step of selectively detecting a detection target object that matches input condition information based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
including
In the detecting step,
designating a detection condition for a detection target object candidate based on the condition information;
a step of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
determining the detection target object by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate;
including,
Object detection method.
[Appendix 10]
A program that causes a hardware resource to execute processing for detecting an object,
A process of designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
a process of determining a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of selectively detecting a detection target object that matches input condition information based on a point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
causing the hardware resource to execute
In the detecting process,
a process of designating detection conditions for detection target object candidates based on the condition information;
a process of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
a process of excluding a detection-excluded object that meets the specified exclusion condition from the detection-target-object candidates based on the point cloud related to the detected detection-target-object candidate, and determining the detection-target object;
run the
program.

なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(特許請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択(必要により不選択)が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、本願に記載の数値及び数値範囲については、明記がなくともその任意の中間値、下位数値、及び、小範囲が記載されているものとみなされる。さらに、上記引用した文献の各開示事項は、必要に応じ、本願発明の趣旨に則り、本願発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれる(属する)ものと、みなされる。 It should be noted that each disclosure of the above patent documents is incorporated herein by reference and can be used as the basis or part of the present invention as necessary. Within the framework of the entire disclosure of the present invention (including claims and drawings), modifications and adjustments of the embodiments and examples are possible based on the basic technical concept thereof. Also, various combinations or selections of various disclosure elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the framework of the full disclosure of the present invention (if necessary not selected) is possible. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including the claims and drawings and the technical idea. Also, with regard to numerical values and numerical ranges described in this application, it is assumed that any intermediate values, sub-numerical values and sub-ranges thereof are described even if not specified. Furthermore, each disclosure item of the above-cited document may be used in combination with the items described in this document as a part of the disclosure of the present invention in accordance with the spirit of the present invention, if necessary. are considered to be included in (belong to) the disclosure of the present application.

1 物体検出システム
10 撮影現場
11 第1線路
12 第2線路
13 第3線路
14 地面
20 監視領域
21 作業員(検出対象物体)
22 軌陸車(検出対象物体)
23、24 列車(検出除外物体)
25 作業員(非検出対象物体)
31 第1線路点群
32 第2線路点群
33 第3線路点群
34 地面点群
41 作業員点群(検出対象物体点群)
42 軌陸車点群(検出対象物体点群)
43、44a、44b 列車点群(検出除外物体点群)
45 作業員点群(非検出対象物体点群)
53、54a、54b 列車点群(検出対象物体点群)
61 作業員検出枠
62 軌陸車検出枠
63、64a、64b 列車検出枠
100 3次元点群データ
200 物体検出装置
210 前処理部
211 フォーマット変換部
212 ノイズ除去部
220 監視領域指定部
221 範囲指定部
222 角度指定部
230 基準面決定部
231 平面検出部
232 基準面選択部
233 基準面記憶部
240 検出部
241 検出条件指定部
242 検出処理部
243 除外条件指定部
244 除外処理部
251 形態検出部
252 判定部
253 除外部
260 結果生成部
261 諸元算出部
262 図形生成部
270 ユーザインタフェイス部
271 出力部
272 入力部
273 警報部
300 3次元センサ
1000 ハードウェア資源
1001 プロセッサ
1002 メモリ
1003 ネットワークインタフェイス
1004 内部バス
Reference Signs List 1 object detection system 10 shooting site 11 first track 12 second track 13 third track 14 ground 20 surveillance area 21 worker (object to be detected)
22 Rail vehicle (object to be detected)
23, 24 trains (objects excluded from detection)
25 worker (non-detection object)
31 First track point group 32 Second track point group 33 Third track point group 34 Ground point group 41 Worker point group (detection target object point group)
42 Rail-road vehicle point cloud (detection target object point cloud)
43, 44a, 44b Train point cloud (detection exclusion object point cloud)
45 Worker point cloud (non-detection target object point cloud)
53, 54a, 54b train point cloud (detection target object point cloud)
61 worker detection frame 62 rail/road vehicle detection frame 63, 64a, 64b train detection frame 100 three-dimensional point cloud data 200 object detection device 210 preprocessing unit 211 format conversion unit 212 noise removal unit 220 monitoring area designation unit 221 range designation unit 222 Angle designation unit 230 Reference plane determination unit 231 Plane detection unit 232 Reference plane selection unit 233 Reference plane storage unit 240 Detection unit 241 Detection condition designation unit 242 Detection processing unit 243 Exclusion condition designation unit 244 Exclusion processing unit 251 Form detection unit 252 Determination unit 253 exclusion unit 260 result generation unit 261 specification calculation unit 262 graphic generation unit 270 user interface unit 271 output unit 272 input unit 273 alarm unit 300 three-dimensional sensor 1000 hardware resource 1001 processor 1002 memory 1003 network interface 1004 internal bus

Claims (10)

ユーザの操作を受けるように構成された入力部と、
前記入力部からの指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するように構成された監視領域指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するように構成された基準面決定部と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、前記入力部からの条件情報に合致した検出対象物体を選択的に検出するように構成された検出部と、
を備え、
前記検出部は、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するように構成された検出条件指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するように構成された検出処理部と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成された除外条件指定部と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するように構成された除外処理部と、
を備える、
物体検出装置。
an input unit configured to receive a user's operation;
a monitoring area designation unit configured to designate a monitoring area for three-dimensional point cloud data relating to a site based on designation information from the input unit;
a reference plane determination unit configured to determine a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
It is configured to selectively detect a detection target object that matches the condition information from the input unit based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data. a detector,
with
The detection unit is
a detection condition specifying unit configured to specify a detection condition for a detection target object candidate based on the condition information;
a detection processing unit configured to detect a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring region in the three-dimensional point cloud data;
an exclusion condition specifying unit configured to specify an exclusion condition including a particular form of a detection exclusion object based on the condition information;
The detection target object is determined by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate. an exclusion processing unit;
comprising
Object detection device.
前記検出処理部は、
前記3次元点群データにおける前記監視領域以外の領域の点群を削除し、かつ、前記監視領域内の点群から前記基準面に係る点群を削除して点群のグループ分けを行う処理と、
グループ分けされた点群に基づいて1セグメント1物体として物体を検出する処理と、
検出された物体に係る点群に基づいて、前記検出条件を満たす物体を検出対象物体候補として検出する処理と、
を行うように構成されている、
請求項1記載の物体検出装置。
The detection processing unit is
a process of deleting point groups in areas other than the monitoring area in the three-dimensional point cloud data, and deleting point groups related to the reference plane from the point clouds in the monitoring area to group the point clouds; ,
A process of detecting an object as one segment and one object based on the grouped point cloud;
A process of detecting an object that satisfies the detection condition as a detection target object candidate based on a point cloud related to the detected object;
is configured to do
The object detection device according to claim 1.
前記除外処理部は、前記検出処理部で検出された前記検出対象物体候補の全てを1つずつ除外処理するように構成されている、
請求項1又は2記載の物体検出装置。
The exclusion processing unit is configured to exclude all of the detection target object candidates detected by the detection processing unit one by one.
3. The object detection device according to claim 1 or 2.
前記除外処理部は、
検出された前記検出対象物体候補に係る点群に基づいて各前記検出対象物体候補の形態を検出するように構成された形態検出部と、
検出された各前記検出対象物体候補の形態のうち、前記除外条件に該当するものがあるか否かを判定するように構成された判定部と、
前記除外条件に該当すると判定された前記検出除外物体を検出対象物体候補から除外して、前記検出対象物体を決定するように構成された除外部と、
を備える、
請求項1乃至3のいずれか一に記載の物体検出装置。
The exclusion processing unit
a form detection unit configured to detect the form of each of the detection target object candidates based on the detected point cloud associated with the detection target object candidates;
a determination unit configured to determine whether or not there is a configuration of each of the detected detection target object candidates that satisfies the exclusion condition;
an exclusion unit configured to determine the detection target object by excluding the detection exclusion object determined to meet the exclusion condition from detection target object candidates;
comprising
The object detection device according to any one of claims 1 to 3.
前記基準面決定部は、
前記3次元点群データにおける前記監視領域内の点群に基づいて1つ以上の平面を検出するように構成された平面検出部と、
前記入力部からの選択情報に基づいて、前記1つ以上の平面の中から少なくとも1つの前記基準面を選択するように構成された基準面選択部と、
を備える、
請求項1乃至4のいずれか一に記載の物体検出装置。
The reference plane determination unit
a plane detector configured to detect one or more planes based on the point cloud within the monitored area in the three-dimensional point cloud data;
a reference plane selection unit configured to select at least one of the reference planes from among the one or more planes based on selection information from the input unit;
comprising
The object detection device according to any one of claims 1 to 4.
少なくとも前記監視領域、前記基準面、前記検出条件、及び前記除外条件を用いて、前記検出対象物体の検出に関する結果を生成するように構成された結果生成部と、
少なくとも前記結果を出力するように構成された出力部と、
をさらに備える、
請求項1乃至5のいずれか一に記載の物体検出装置。
a result generation unit configured to generate a result regarding detection of the detection target object using at least the monitoring area, the reference plane, the detection condition, and the exclusion condition;
an output unit configured to output at least the result;
further comprising
The object detection device according to any one of claims 1 to 5.
前記検出処理部は、前記検出対象物体に係る点群にラベル付けを行うように構成され、
前記結果生成部は、前記ラベルの有無により前記検出対象物体の有無を判定し、前記検出対象物体がある場合には警告情報を生成するように構成され、
前記出力部は、前記警告情報を出力するように構成されている、
請求項6記載の物体検出装置。
The detection processing unit is configured to label a point cloud related to the detection target object,
The result generation unit is configured to determine the presence or absence of the detection target object based on the presence or absence of the label, and to generate warning information when the detection target object is present,
The output unit is configured to output the warning information,
The object detection device according to claim 6.
請求項1乃至7のいずれか一に記載の物体検出装置と、
前記物体検出装置と通信可能に接続されるとともに、現場を撮影する3次元センサと、
を備える物体検出システム。
an object detection device according to any one of claims 1 to 7;
a three-dimensional sensor that is communicatively connected to the object detection device and that captures a scene;
An object detection system comprising:
ハードウェア資源を用いて物体を検出する物体検出方法であって、
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するステップと、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出するステップと、
を含み、
前記検出するステップでは、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するステップと、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するステップと、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するステップと、
を含む、
物体検出方法。
An object detection method for detecting an object using hardware resources,
Designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
determining a reference plane based on a point cloud within the monitoring area in the three-dimensional point cloud data;
a step of selectively detecting a detection target object that matches input condition information based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
including
In the detecting step,
designating a detection condition for a detection target object candidate based on the condition information;
a step of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
determining the detection target object by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate;
including,
Object detection method.
物体を検出する処理をハードウェア資源に実行させるプログラムであって、
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定する処理と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出する処理と、
を前記ハードウェア資源に実行させ、
前記検出する処理では、
前記条件情報に基づいて検出対象物体候補の検出条件を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出する処理と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する処理と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定する処理と、
を実行する、
プログラム。
A program that causes a hardware resource to execute processing for detecting an object,
A process of designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
a process of determining a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of selectively detecting a detection target object that matches input condition information based on a point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
causing the hardware resource to execute
In the detecting process,
a process of designating detection conditions for detection target object candidates based on the condition information;
a process of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
a process of excluding a detection-excluded object that meets the specified exclusion condition from the detection-target-object candidates based on the point cloud related to the detected detection-target-object candidate, and determining the detection-target object;
run the
program.
JP2021142279A 2021-09-01 2021-09-01 Object detection device, system, method, and program Pending JP2023035434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021142279A JP2023035434A (en) 2021-09-01 2021-09-01 Object detection device, system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021142279A JP2023035434A (en) 2021-09-01 2021-09-01 Object detection device, system, method, and program

Publications (1)

Publication Number Publication Date
JP2023035434A true JP2023035434A (en) 2023-03-13

Family

ID=85504176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021142279A Pending JP2023035434A (en) 2021-09-01 2021-09-01 Object detection device, system, method, and program

Country Status (1)

Country Link
JP (1) JP2023035434A (en)

Similar Documents

Publication Publication Date Title
US11941887B2 (en) Scenario recreation through object detection and 3D visualization in a multi-sensor environment
JP7167397B2 (en) Method and apparatus for processing point cloud data
US10210286B1 (en) Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets
CN103260009B (en) Image monitoring device, surveillance and surveillance construction method
US10885775B2 (en) Monitoring a scene to analyze an event using a plurality of image streams
EP3098754A1 (en) Video camera scene translation
Chi et al. A methodology for object identification and tracking in construction based on spatial modeling and image matching techniques
JP2019022205A (en) Sensing data processing system, edge server therefor, method for reducing transmission traffic and program
EP2709066A1 (en) Concept for detecting a motion of a moving object
JP2018160219A (en) Moving route prediction device and method for predicting moving route
CN109360362A (en) A kind of railway video monitoring recognition methods, system and computer-readable medium
CN112530021A (en) Method, apparatus, device and storage medium for processing data
JP2023524623A (en) Method, apparatus, equipment, storage medium and program for detecting traffic anomalies
Yu et al. Training-free monocular 3d event detection system for traffic surveillance
JPH11257931A (en) Object recognizing device
KR102163774B1 (en) Apparatus and method for image recognition
KR101758786B1 (en) Apparatus for determining location of special point in image and method thereof
KR101736431B1 (en) System and Method for Smart Traffic Monitoring Using Multiple Image
JP2023035434A (en) Object detection device, system, method, and program
WO2023166411A1 (en) Automatic digital inspection of railway environment
EP2709065A1 (en) Concept for counting moving objects passing a plurality of different areas within a region of interest
CN116563801A (en) Traffic accident detection method, device, electronic equipment and medium
KR102030736B1 (en) Apparatus for analyzing Multi-Distributed Video Data
JP7405395B2 (en) Object detection device, system, method, and program
KR101117235B1 (en) Apparatus and method for recognizing traffic accident