JP2023035434A - Object detection device, system, method, and program - Google Patents
Object detection device, system, method, and program Download PDFInfo
- Publication number
- JP2023035434A JP2023035434A JP2021142279A JP2021142279A JP2023035434A JP 2023035434 A JP2023035434 A JP 2023035434A JP 2021142279 A JP2021142279 A JP 2021142279A JP 2021142279 A JP2021142279 A JP 2021142279A JP 2023035434 A JP2023035434 A JP 2023035434A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- target object
- point cloud
- exclusion
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出装置、システム、方法、及びプログラムに関する。 The present invention relates to an object detection device, system, method, and program.
鉄道会社では、点検中の線路への作業員等の侵入、特に、列車通過時の線路及びその周辺にいる物体を確認して、鉄道線路工事中の安全管理補助を実現したいというニーズがある。確認したい物体には、単純に人だけでなく作業車両(例えば、軌陸車)が含まれる。列車に関しては、当然、線路への侵入を許容して、確認したい物体から除外したい。このようなニーズに応えるために、3次元センサを活用して監視領域(監視空間)内の物体を検出する技術が存在する(例えば、特許文献1、2参照)。さらに、検出された物体の寸法、体積、移動有無などの条件によって検出の要否を切り替えることが可能な技術も存在する(例えば、特許文献3参照)。 In railway companies, there is a need to realize safety management assistance during railway track construction by checking for workers or the like entering the track under inspection, especially for objects on the track and its surroundings when a train is passing. Objects to be checked include not only people, but also work vehicles (eg, rail vehicles). For trains, of course, we want to allow them to enter the tracks and exclude them from the objects we want to check. In order to meet such needs, there are techniques for detecting an object within a monitored area (monitored space) using a three-dimensional sensor (see Patent Documents 1 and 2, for example). Furthermore, there is also a technique that can switch the necessity of detection depending on conditions such as the size, volume, and presence or absence of movement of a detected object (see, for example, Patent Document 3).
以下の分析は、本願発明者により与えられる。 The following analysis is given by the inventors.
しかしながら、物体が監視領域(監視空間)内に全体が存在しない場合(例えば、監視領域に物体の一部のみが入った場合)や、物体が3次元センサから遠くて撮像された当該物体に係る点群に大きく疎な部分が存在する場合のように、監視領域内の物体に係る情報が部分的又は疎な場合に、特許文献1~3に記載の技術では、監視領域内の類似する物体(例えば、軌陸車と列車)を識別して検出することが難しい。 However, when the entire object does not exist within the monitoring area (monitored space) (for example, when only part of the object enters the monitoring area), or when the object is far from the 3D sensor and is imaged, When the information about the object in the monitoring area is partial or sparse, such as when the point cloud has a large sparse part, the techniques described in Patent Documents 1 to 3 can detect similar objects in the monitoring area. (e.g. rail vehicles and trains) are difficult to discriminate and detect.
本発明の主な課題は、監視領域内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる物体検出装置、システム、方法、及びプログラムを提供することである。 A main object of the present invention is to provide an object detection apparatus, system, method, and program that can contribute to identifying and detecting an object even when information about the object in the monitoring area is partial or sparse. to provide.
第1の視点に係る物体検出装置は、ユーザの操作を受けるように構成された入力部と、前記入力部からの指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するように構成された監視領域指定部と、前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するように構成された基準面決定部と、前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、前記入力部からの条件情報に合致した検出対象物体を選択的に検出するように構成された検出部と、を備え、前記検出部は、前記条件情報に基づいて検出対象物体候補の検出条件を指定するように構成された検出条件指定部と、前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するように構成された検出処理部と、前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成された除外条件指定部と、検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するように構成された除外処理部と、を備える。 An object detection apparatus according to a first viewpoint includes an input unit configured to receive a user's operation, and a monitoring area for three-dimensional point cloud data related to a site based on designation information from the input unit. a monitoring area specifying unit configured to specify a monitoring area; a reference plane determining unit configured to determine a reference plane based on a point group within the monitoring area in the three-dimensional point cloud data; and the three-dimensional point a detection unit configured to selectively detect a detection target object that matches the condition information from the input unit based on the point group on the reference plane among the point groups in the monitoring area in the group data; , wherein the detection unit includes a detection condition specifying unit configured to specify a detection condition for the detection target object candidate based on the condition information; and a point cloud within the monitoring region in the three-dimensional point cloud data. a detection processing unit configured to detect a detection target object candidate that satisfies the detection condition based on; and an exclusion condition designating unit configured to exclude detection-excluded objects that match the specified exclusion condition from the detection-target object candidates based on the detected point group related to the detection-target-object candidates. an exclusion processor configured to determine an object to be detected.
第2の視点に係る物体検出システムは、前記第1の視点に係る物体検出装置と、前記物体検出装置と通信可能に接続されるとともに、現場を撮影する3次元センサと、を備える。 An object detection system relating to a second viewpoint includes an object detection device relating to the first viewpoint, and a three-dimensional sensor communicably connected to the object detection device and capturing an image of a scene.
第3の視点に係る物体検出方法は、ハードウェア資源を用いて物体を検出する物体検出方法であって、入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するステップと、前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するステップと、前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出するステップと、を含み、前記検出するステップでは、前記条件情報に基づいて検出対象物体候補の検出条件を指定するステップと、前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するステップと、前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するステップと、検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するステップと、を含む。 An object detection method relating to a third viewpoint is an object detection method for detecting an object using hardware resources. determining a reference plane based on a point group within the monitoring area in the three-dimensional point cloud data; and selectively detecting a detection target object that matches the input condition information based on the above point cloud, wherein the detection step includes detection conditions for detection target object candidates based on the condition information. a step of detecting a detection target object candidate that satisfies the detection condition based on the point group in the monitoring region in the three-dimensional point cloud data; and a step of detecting a detection exclusion object based on the condition information designating an exclusion condition including a part of a specific form; and removing a detection exclusion object that matches the specified exclusion condition from the detection target object candidate based on the point group related to the detected detection target object candidate. and determining the object to be detected by exclusion processing.
第4の視点に係るプログラムは、物体を検出する処理をハードウェア資源に実行させるプログラムであって、入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定する処理と、前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定する処理と、前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出する処理と、を前記ハードウェア資源に実行させ、前記検出する処理では、前記条件情報に基づいて検出対象物体候補の検出条件を指定する処理と、前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出する処理と、前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する処理と、検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定する処理と、を実行する。 A program related to a fourth viewpoint is a program that causes a hardware resource to execute processing for detecting an object, and designates a monitoring area for 3D point cloud data related to the site based on input designation information. a process of determining a reference plane based on the point group within the monitoring area in the three-dimensional point cloud data; and a process of selectively detecting a detection target object that matches input condition information based on the point cloud; A process of designating detection conditions for candidates; a process of detecting detection target object candidates that satisfy the detection conditions based on the point group within the monitoring region in the three-dimensional point cloud data; and based on the condition information, A process of designating an exclusion condition including a part of the peculiar form of the detection exclusion object, and detecting the detection exclusion object that matches the specified exclusion condition based on the point cloud related to the detected detection target object candidate. and a process of determining the detection target object by excluding it from target object candidates.
なお、プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。また、本開示では、コンピュータプログラム製品として具現することも可能である。プログラムは、コンピュータ装置に入力装置又は外部から通信インタフェイスを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させ、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェイスを介して、外部と交信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備える。 Note that the program can be recorded in a computer-readable storage medium. The storage medium can be non-transient such as semiconductor memory, hard disk, magnetic recording medium, optical recording medium, and the like. The present disclosure may also be embodied as a computer program product. A program is input to a computer device via an input device or an external communication interface, is stored in a storage device, drives a processor in accordance with predetermined steps or processes, and stages the results of processing including intermediate states as necessary. can be displayed via a display device, or can be communicated with the outside via a communication interface. A computer device for this purpose, as an example, typically includes a processor, a storage device, an input device, a communication interface, and optionally a display device, all of which are connectable to each other by a bus.
前記第1~第4の視点によれば、監視領域内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる。 According to the first to fourth viewpoints, it is possible to contribute to identifying and detecting an object even when information about the object within the monitoring area is partial or sparse.
以下、実施形態について図面を参照しつつ説明する。なお、本出願において図面参照符号を付している場合は、それらは、専ら理解を助けるためのものであり、図示の態様に限定することを意図するものではない。また、下記の実施形態は、あくまで例示であり、本発明を限定するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インタフェイスも同様である。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び必要に応じ表示装置を備え、コンピュータ装置は、通信インタフェイスを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。 Hereinafter, embodiments will be described with reference to the drawings. It should be noted that when reference numerals are attached to the drawings in this application, they are solely for the purpose of helping understanding, and are not intended to limit the embodiments shown in the drawings. Moreover, the following embodiments are only examples, and do not limit the present invention. Also, connection lines between blocks in drawings and the like referred to in the following description include both bidirectional and unidirectional connections. The unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality. Furthermore, in the circuit diagrams, block diagrams, internal configuration diagrams, connection diagrams, etc. disclosed in the present application, an input port and an output port exist at the input end and the output end of each connection line, respectively, although not explicitly shown. The input/output interface is the same. The program is executed via a computer device, and the computer device includes, for example, a processor, a storage device, an input device, a communication interface, and optionally a display device. It is configured to be able to communicate with external devices (including computers), whether wired or wireless.
[実施形態1]
実施形態1に係る物体検出システムについて図面を用いて説明する。図1は、実施形態1に係る物体検出システムを用いて物体を検出する例を示したイメージ図である。図2は、実施形態1に係る物体検出システムの構成を模式的に示したブロック図である。図3は、実施形態1に係る物体検出システムにおける除外処理部の構成を模式的に示したブロック図である。
[Embodiment 1]
An object detection system according to Embodiment 1 will be described with reference to the drawings. FIG. 1 is an image diagram showing an example of detecting an object using the object detection system according to the first embodiment. FIG. 2 is a block diagram schematically showing the configuration of the object detection system according to Embodiment 1. FIG. 3 is a block diagram schematically showing the configuration of an exclusion processing unit in the object detection system according to the first embodiment; FIG.
物体検出システム1は、撮影現場10に仮想的に設定された監視領域20における所定の物体(検出除外物体;図1では列車23、24)を選択的に除外して、監視領域20における所定の物体以外の物体(検出対象物体;図1では作業員21、軌陸車22)を検出するシステムである(図1、図2参照)。物体検出システム1は、列車23、24を除外する場合であれば、安全監視の分野で、遮断機が降りた踏切(監視領域)内に侵入している物体(例えば、通行人)の検出や、踏切内で立ち往生している物体(例えば、自動車)の検出において、列車23、24を除外して利用することができる。また、物体検出システム1は、一般車とバスを切り分け、バスのみ除外することにより、交通インフラ分野においてバスターミナル(監視領域)に侵入してくる一般車を検出して警告を発するといった場合にも利用することができる。物体検出システム1は、物体検出装置200と、3次元センサ300と、を備える。
The object detection system 1 selectively excludes predetermined objects (objects excluded from detection;
物体検出装置200は、3次元センサ300で撮影された撮影現場10の3次元点群データ100に基づいて、監視領域20における所定の物体(検出除外物体;図1では列車23、24)を選択的に除外して、監視領域20における所定の物体以外の物体(検出対象物体;図1では作業員21、軌陸車22)を検出する装置である(図1、図2参照)。物体検出装置200は、撮影現場10における監視領域20以外の領域に存在する物体(非検出対象物体;図1では作業員25)を検出しないようにすることができる。物体検出装置200には、コンピュータを構成する機能部(例えば、プロセッサ、記憶装置、入力装置、通信インタフェイス、及び表示装置)を備えた端末(コンピュータ端末)を用いることができ、例えば、パーソナルコンピュータ、サーバ、タブレット端末、スマートフォンなどを用いることができる。物体検出装置200は、3次元センサ300と直接的又は間接的に通信可能(無線通信可能、有線通信可能)に接続されており、ネットワーク(図示せず)を介して3次元センサ300と通信可能に接続してもよい。物体検出装置200は、所定のプログラムを実行することによって、前処理部210と、監視領域指定部220と、基準面決定部230と、検出部240と、結果生成部260と、ユーザインタフェイス部270と、を備えた構成を実現する。
The
前処理部210は、入力された3次元点群データ100に対して前処理(データ整形)を行う機能部である(図2参照)。前処理部210で処理された3次元点群データ100は、ユーザインタフェイス部270の出力部271で表示出力させることができる。前処理部210は、フォーマット変換部211と、ノイズ除去部212と、を備える。
The preprocessing
フォーマット変換部211は、前処理として、入力された3次元点群データ100のフォーマットを、物体検出装置200において共通に使える共通フォーマットに変換する機能部である(図2参照)。フォーマット変換部211は、変換された共通フォーマットの3次元点群データ100を、ノイズ除去部212に向けて出力する。なお、3次元点群データ100のフォーマットがもともと共通フォーマットの場合は、フォーマット変換部211でのフォーマット変換処理をスキップしてもよい。
The
ノイズ除去部212は、前処理として、フォーマット変換部211からの3次元点群データ100における点群の中からノイズ(検出に不要な点群)を除去する機能部である(図2参照)。ノイズ除去部212は、ノイズが除去された3次元点群データ100を、監視領域指定部220、基準面決定部230、及びユーザインタフェイス部270に向けて出力する。ノイズ除去方法として、例えば、平滑化処理、フィルタリング(例えば、移動平均フィルタ処理、メディアンフィルタ処理など)、外れ値除去処理(例えば、カイの二乗検定による外れ値除去処理)などが挙げられる。なお、ノイズがほとんどない状態であれば、ノイズ除去部212でのノイズ除去処理をスキップしてもよい。
The
監視領域指定部220は、撮影現場(図1の10)に係る3次元点群データ100において監視領域20を指定する機能部である(図2参照)。監視領域20は、複数指定し、切り替えられるようにしてもよい。切り替えは、手動だけでなく、特定時間やタイマーによる自動切り替えでもよい。監視領域指定部220は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて監視領域20を指定する。指定された監視領域20は、記憶される。なお、3次元点群データ100の全領域が監視領域20である場合には、監視領域20の指定をスキップすることができる。監視領域指定部220で指定された監視領域20は、ユーザインタフェイス部270の出力部271で表示出力させることができる。監視領域指定部220は、範囲指定部221と、角度指定部222と、を備える。
The monitoring
範囲指定部221は、3次元点群データ100の撮像全景における監視対象となる一部の領域(監視領域20)の範囲(幅、奥行き、高さ)を指定する機能部である(図2参照)。範囲指定部221は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、監視領域20の範囲を指定する。範囲指定部221は、指定された監視領域20の範囲に係る情報を基準面決定部230及び検出部240に向けて出力する。
The
角度指定部222は、3次元点群データ100の点群を所定の座標点(指定した任意の座標点でも可)を中心に回転させる角度を指定する機能部である(図2参照)。角度指定部222は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、点群を回転させる角度を指定する。角度指定部222による点群を回転させる角度の指定は、範囲指定部221による監視領域20の範囲の指定を補助するものである。点群の回転が不要であれば、角度指定部222を省略したり、角度の指定をスキップするようにしてもよい。角度指定部222は、指定された角度に係る情報を基準面決定部230及び検出部240に向けて出力する。なお、指定された角度に係る情報は、指定された監視領域20の範囲に係る情報とは独立したものである。
The
基準面決定部230は、監視領域20における基準面(図1では地面14)を決定する機能部である(図2参照)。基準面は、複数決定し、切り替えられるようにしてもよい。切り替えは手動だけでなく、特定時間やタイマーによる自動切り替えでもよい。基準面は、水平な地面、床面だけでなく、坂道、空中に設定してもよい。これにより、地面上での車や人の監視だけでなく、鳥類やドローンなどを監視することができる。決定された基準面は、記憶される。基準面決定部230で決定された基準面は、ユーザインタフェイス部270の出力部271で表示出力させることができる。基準面決定部230は、平面検出部231と、基準面選択部232と、基準面記憶部233と、を備える。
The reference
平面検出部231は、3次元点群データ100における監視領域20内の点群に基づいて1つ以上の平面(例えば、予め設定された面積以上の平面;図1では地面14)を検出する機能部である(図2参照)。平面検出部231は、前処理部210で前処理された3次元点群データ100を取得し、監視領域指定部220で指定された監視領域20に係る情報(範囲、角度)を取得する。平面検出部231は、指定された範囲で3次元点群データ100に監視領域20を設定し、指定された角度で3次元点群データ100(監視領域20を含む)の点群を回転させた画像を作成してもよい。平面検出部231は、3次元点群データ100における監視領域20内の点群の中から1つ以上の平面を検出(検索)する。平面検出部231は、検出する平面の種類(例えば、水平面、垂直面、傾斜面、監視領域20の範囲の境界面など)を予め設定しておいて、設定した種類の平面を選択的に検出するようにしてもよい。なお、3次元センサ300の特性によっては取得できる座標の誤差のバラつきから実際の平面が撮像では波打つような点群となる場合があるが、その場合、平面検出部231の設定において、平面と認識する各点群間の誤差閾値の指定範囲を大きくするように設定することで、波打ちの影響を小さくして平面を検出することができる。
The
基準面選択部232は、平面検出部231で検出された平面の中から基準面を選択する機能部である(図2参照)。基準面選択部232は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの選択情報に基づいて基準面を選択する。基準面選択部232は、平面検出部231によらないある特定の平面情報を床面として指定することができる。
The reference
基準面記憶部233は、基準面選択部232で選択された基準面に係る情報を記憶する機能部である(図2参照)。基準面記憶部233に記憶された基準面に係る情報は、検出部240において利用可能になる。
The reference
検出部240は、3次元点群データ100における監視領域20内の点群のうち基準面(基準面決定部230で決定した基準面)上の点群に基づいて、検出対象物体を選択的に検出する機能部である(図2参照)。検出部240は、検出処理のために、RGB(Red-Green-Blue)画像も補助的に使ってもよい。検出部240は、検出条件指定部241と、検出処理部242と、除外条件指定部243と、除外処理部244と、を備える。
The
検出条件指定部241は、検出対象物体候補の検出条件を指定する機能部である(図2参照)。検出条件指定部241は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの条件情報に基づいて、検出対象物体候補の検出条件を指定する。検出対象物体候補の検出条件として、例えば、物体の寸法範囲や体積範囲の他、時系列で確認して動体を発見させる等の計算量の小さい条件(除外条件と比べて計算量の小さい条件)が挙げられる。なお、検出対象物体候補の検出条件は指定しなくてもよく、検出対象物体候補の検出条件の指定がない場合は、予め設定されている検出対象物体候補の検出条件を用いて、検出対象物体候補の検出条件の指定をスキップするようにしてもよい。
The detection
検出処理部242は、3次元点群データ100における監視領域20内の点群に基づいて、検出条件指定部241で指定された検出対象物体候補の検出条件を満たす検出対象物体候補を検出するように処理する機能部である(図2参照)。検出処理部242は、平面検出部231で作成された画像(3次元点群データ100に監視領域20を設定した画像)を用いるようにしてもよい。検出処理部242は、3次元点群データ100における監視領域20以外の領域の点群を削除し、かつ、監視領域20内の点群から、基準面選択部232で選択された基準面(図1では地面14)に係る点群を削除して、基準面上の各物体に係る点群を孤立させる。検出処理部242は、基準面上の各物体に係る点群を孤立させた監視領域20内の点群(基準面に係る点群は削除)に基づいて、セグメント化処理(点群のグループ分け)を実施し、1セグメント1物体として物体(検出対象物体候補の候補に相当)を検出する。検出対象物体候補の候補は、図1の例では、線路11、12、13、作業員21、軌陸車22、列車23、24となる。セグメント化処理では、例えば、隣り合う点間の距離が予め設定された所定の距離以内にある点群のまとまりを1つのセグメントとして処理することができる。検出処理部242は、1セグメント1物体として検出された物体に係る点群に基づいて、検出条件指定部241によって指定された検出対象物体候補の検出条件を満たす物体を検出対象物体候補として検出する。検出対象物体候補は、図1の例では、作業員21、軌陸車22、列車23、24となる。検出対象物体候補の検出では、AI(Artificial Intelligence)やパターンマッチングなどを利用してもよい。検出処理部242は、検出された検出対象物体候補に係る点群を記憶する。
The
除外条件指定部243は、除外条件(検出除外物体の検出条件)を指定する機能部である(図2参照)。除外条件指定部243は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する機能部である(図3参照)。除外条件として、検出除外物体の一部の特有(具体的、唯一)の形態、例えば、検出除外物体の一部の特有な形状や構造、検出除外物体の一部の平面(例えば、列車であれば上面、側面、運転席側の面、車掌席側の面等)の組み合わせ、基準線(例えば、線路、架線、道路、ケーブル等)に対する検出除外物体の一部の所定の平面(例えば、列車であれば運転席側の面、車掌席側の面)の特有な位置及び方向、検出除外物体の一部の所定の平面の特有な寸法範囲(例えば、垂直方向長さ範囲、水平方向長さ範囲等)等の計算量の大きい条件(検出対象物体候補の検出条件と比べて計算量の大きい条件)が挙げられる。除外条件の指定方法については、事前に撮影した3次元点群データ100から検出除外物体の形態を検出して選択又は調整することによって指定するようにしてもよい。除外条件の指定の際、RGB画像も補助的に使ってもよい。除外条件は、リストやデータベースに設定して記憶させる。除外条件の指定後においても、判定部252での判定結果を蓄積して機械学習して除外条件を更新するようにしてもよい。
The exclusion
除外処理部244は、検出処理部242で検出された検出対象物体候補に係る点群に基づいて、除外条件指定部243で指定された除外条件に合致した物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外処理して検出対象物体(図1では作業員21、軌陸車22)を決定する機能部である(図2、図3参照)。除外処理部244は、検出処理部242で検出された検出対象物体候補の全てを1つずつ除外処理する。なお、除外処理部244は、検出処理部242で検出処理した後に除外処理を行っているが、検出処理部242で検出処理する前に除外処理を行うようにしてもよい。除外処理部244は、形態検出部251と、判定部252と、除外部253と、を備える。
The
形態検出部251は、検出処理部242で検出された全て検出対象物体候補に係る点群に基づいて各検出対象物体候補の形態(例えば、形状、平面、平面の位置及び方向、平面の寸法範囲等)を検出する機能部である(図3参照)。検出対象物体候補の形態の検出は、検出対象物体候補ごとに、検出対象物体候補に係る点群から可能な限り形態を検出する。
The
判定部252は、形態検出部251で検出された各検出対象物体候補の形態のうち、除外条件指定部243で指定された除外条件に該当するものがあるか否かを判定する機能部である(図3参照)。除外条件に該当するものがあるか否かの判定では、AI(Artificial Intelligence)やパターンマッチングなどを利用してもよい。該当するものがない場合、判定部252は、検出対象物体候補の全てを検出対象物体として決定する。
The
除外部253は、判定部252で除外条件に該当すると判定された物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外して、検出対象物体(図1では作業員21、軌陸車22)を決定する機能部である(図3参照)。除外部253は、決定した検出対象物体(図1では作業員21、軌陸車22)の点群にラベル付けして追跡できるようにしてもよい。
The excluding
列車を除外する場合を例にすると、列車は多くの平面から構成されており、規格が概ね統一されていることから、3次元センサ300の3次元点群データ100から列車を含む物体を検出した後、そこから更に除外条件で指定された平面を検出し、かつ、検出された平面が列車の特有な形態(高さ、列車全体に占める割合、配置等)に該当することを判定することで、列車全体の寸法だけでなく、列車の一部の形態に基づいて検出対象物体候補から列車(検出除外物体)を除外することができる。
Taking the case of excluding trains as an example, since trains are composed of many planes and the standards are generally unified, objects including trains were detected from the 3D
なお、除外部253は、判定部252で除外条件に該当すると判定された形態に係る物体(検出除外物体)が存在する場合、当該検出除外物体が存在する監視空間内の全ての物体を除外するようにしてもよい。また、除外部253の代わりに、正規の検出結果とは異なる処置(例えば、利用者に通知)を施せる機能部を用いてもよい。
Note that, if there is an object (detection excluded object) having a form determined by the
結果生成部260は、監視領域(図1の20)に係る情報、基準面に係る情報、及び、検出情報に基づいて、管理者に通知するための結果を生成(又は算出)する機能部である(図2参照)。結果生成部260は、監視領域指定部220からの監視領域20に係る情報を取得し、基準面決定部230からの基準面に係る情報を取得し、検出部240からの検出情報(少なくとも検出対象物体に係る情報)を取得する。生成される結果は、監視領域20の図形、基準面の図形、及び、検出情報の物体の図形や諸元(例えば、物体の寸法、体積、重心位置、移動速度等)とすることができる。結果生成部260は、生成された結果をユーザインタフェイス部270に向けて出力する。結果生成部260は、検出情報において検出対象物体(例えば、ラベル付きの検出対象物体)があるか否かを判定し、検出対象物体がある場合には、生成された結果とともに警告情報をユーザインタフェイス部270に向けて出力するようにしてもよい。結果生成部260は、諸元算出部261と、図形生成部262と、を備える。
The
諸元算出部261は、検出情報に基づいて、諸元を算出する機能部である(図2参照)。算出される諸元として、例えば、検出対象物体(図1では作業員21、軌陸車22)の寸法、体積、重心位置、移動速度等が挙げられる。諸元算出部261は、算出された諸元を結果としてユーザインタフェイス部270に向けて出力する。
The
図形生成部262は、監視領域(図1の20)に係る情報、基準面に係る情報、及び、検出情報(検出条件、除外条件、検出結果を含む)に基づいて、図形を生成する機能部である(図2参照)。生成される図形として、例えば、監視領域20の図形、基準面の図形、及び、検出情報の図形(図1では検出枠61、62、物体の図形)等が挙げられる。図形は、位置を考慮して生成される。また、図形の生成では、監視領域20、基準面及び検出情報のうちの一部の要素の生成を省略することができる。なお、図形生成部262は、検出対象物体(図1では作業員21、軌陸車22)、検出除外物体(図1では列車23、24)、非検出対象物体(図1では作業員25)との違いを明確にするために、検出対象物体の図形のみを生成し、検出除外物体及び非検出対象物体の図形を生成しないようにしてもよい。図形生成部262は、生成された図形を結果としてユーザインタフェイス部270に向けて出力する。
The
ユーザインタフェイス部270は、ユーザと物体検出装置200との間の情報のやりとりを行う機能部である(図2参照)。ユーザインタフェイス部270は、出力部271と、入力部272と、を備える。
The
出力部271は、各種情報を出力(表示出力、音声出力、送信出力等)する機能部である(図2参照)。出力部271は、前処理部210のノイズ除去部212からの前処理後の3次元点群データ100を出力することができる。出力部271は、監視領域指定部220で抽出される監視領域20や、基準面決定部230による平面位置を出力してもよい。出力部271は、結果生成部260からの結果(図1の検出枠61、62、諸元等)、及び、警告情報(取得した場合)を出力することができる。警告情報の出力の仕方として、例えば、背景の色を変化又は点滅させて表示出力したり、警告音を音声出力したり、警報情報を利用者の端末に向けて送信出力することが挙げられる。出力された3次元点群データ100や結果については、スクリーンショット、数値データなどで保存するようにしてもよい。なお、結果生成部260からの結果については、検出対象物体の位置が明示できれば検出枠61、62でなくてもよく、同時に諸元算出部261で算出した任意の情報を同時に出力してもよい。
The
入力部272は、ユーザの操作を受ける機能部である(図2参照)。ユーザは、入力部272を操作(例えば、キーボード操作、マウスのクリック操作、タッチパネルのタップ操作等)することにより入力されたデータ(例えば、文字、数字、位置、領域等)を監視領域指定部220又は基準面決定部230若しくは検出部240に向けて出力する。入力部272は、ユーザの操作により入力された条件(幅、奥行き、高さ、角度)に係る情報を監視領域指定部220に出力する。入力部272は、ユーザの操作により、基準面決定部230において3次元点群データ100における監視領域(図1の20)の中の点群に基づいて検出された1つ以上の平面の中から基準面(図1では地面14)を選択するための指示を行う。入力部272は、ユーザの操作により入力された検出条件(例えば、高さ範囲、寸法範囲、体積範囲、時系列で確認して動体を発見させる等)や除外条件(検出除外物体の平面の位置及び方向、検出除外物体の平面の寸法範囲等)を検出部240に向けて出力する。入力部272は、ユーザの操作により、本構成機能における全体処理の開始・終了を指示する。
The
3次元センサ300は、被写体(図1では作業員21、25、軌陸車22、列車23、24、線路11、12、13、地面14等)の表面を3次元的にセンシングして撮影する装置である(図1、図2参照)。3次元センサ300は、物体検出装置200と通信可能に接続されている。3次元センサ300は、被写体を撮影することによって所定のフォーマットの3次元点群データ100を生成し、生成された3次元点群データ100を物体検出装置200に向けて出力する。なお、3次元点群データ100は、3次元センサ300で生成しないで、物体検出装置200で生成するようにしてもよい。3次元センサ300には、例えば、ToF(Time of Flight)カメラ、ステレオカメラ、3次元-LIDAR(Laser Imaging Detection And Ranging)、デプスセンサ、測距センサ、距離カメラ等を用いることができる。ここで、3次元点群データ100は、3次元センサ300によって所定のフォーマットで生成されたデータであり、点群(XYZ座標(3次元座標)情報を持った多数の点の集まり)で描画された点群データである(図2参照)。3次元センサ300は、ソリューションに必要な撮影距離、画角、屋内外、日照の有無などの環境条件や顧客の要望に応じて様々な出力形式のセンサ装置に変更することが可能である。3次元センサ300は、複数台(同種のセンサであるか否かは不問)あってもよく、複数の3次元点群データ100を物体検出装置200で合成して1台の3次元センサ300では不可能な広範囲の監視を行うようにしてもよい。また、3次元センサ300は、基準面との相対位置に変化がない範囲で移動してもよい。
The three-
次に、実施形態1に係る物体検出システムにおける物体検出装置の動作について図面を用いて説明する。図4は、実施形態1に係る物体検出システムにおける物体検出装置の動作を模式的に示したフローチャートである。なお、物体検出システムの詳細な構成については図2及びその説明を参照されたい。 Next, the operation of the object detection device in the object detection system according to Embodiment 1 will be described with reference to the drawings. 4 is a flowchart schematically showing the operation of the object detection device in the object detection system according to the first embodiment; FIG. For the detailed configuration of the object detection system, see FIG. 2 and its description.
まず、物体検出装置200の前処理部210は、3次元センサ300で撮影された被写体の3次元点群データ100(監視領域20を含む領域の点群データ)を取得する(ステップA1)。
First, the
次に、物体検出装置200の前処理部210のフォーマット変換部211は、前処理として、取得した3次元点群データ100のフォーマットを、物体検出装置200において共通に使える共通フォーマットに変換する(ステップA2)。
Next, as preprocessing, the
次に、物体検出装置200の前処理部210のノイズ除去部212は、前処理として、フォーマット変換部211でフォーマット変換された3次元点群データ100における点群の中からノイズを除去する(ステップA3)。
Next, as preprocessing, the
次に、物体検出装置200の監視領域指定部220は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、3次元点群データ100の撮像全景における監視領域20(範囲、回転角度)を指定する(ステップA4)。なお、最初に監視領域20を指定した後は、ステップA4をスキップすることができる。
Next, the monitoring
次に、物体検出装置200の基準面決定部230は、3次元点群データ100の点群のうち監視領域にある点群の中から平面を検出し、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの選択情報に基づいて、検出された平面の中から基準面(例えば、地面14)を決定(選択)し、決定された基準面に係る情報を記憶する(ステップA5)。なお、最初に基準面を決定した後は、ステップA5をスキップすることができる。
Next, the reference
次に、物体検出装置200の検出部240の検出条件指定部241は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、検出対象物体候補の検出条件(例えば、寸法範囲、体積範囲、時系列で確認して動体を発見させる等)を指定する(ステップA6)。なお、最初に検出対象物体候補の検出条件を指定した後は、ステップA6をスキップすることができる。また、検出対象物体候補の検出条件は指定しなくてもよく、検出条件の指定がない場合は、予め設定されている検出対象物体候補の検出条件を用いて、ステップA6をスキップすることができる。
Next, the detection
次に、物体検出装置200の検出部240の検出処理部242は、監視領域20内の点群に基づいて、指定された検出対象物体候補の検出条件を満たす検出対象物体候補を検出する(ステップA7)。
Next, the
次に、物体検出装置200の検出部240の除外条件指定部243は、ユーザの操作によって入力されたユーザインタフェイス部270の入力部272からの指定情報に基づいて、除外条件(検出除外物体の一部の特有な形態)を指定する(ステップA8)。なお、最初に除外条件を指定した後は、ステップA8をスキップすることができる。また、除外条件は指定しなくてもよく、検出条件の指定がない場合は、予め設定されている除外条件を用いて、ステップA8をスキップすることができる。
Next, the exclusion
次に、物体検出装置200の検出部240の除外処理部244は、検出された検出対象物体候補に係る点群を解析し、指定された除外条件に合致した物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外して検出対象物体(図1では作業員21、軌陸車22)を決定する(ステップA9)。ステップA9の詳細は、後述する(図5参照)。
Next, the
次に、物体検出装置200の結果生成部260は、検出部240での最新の検出結果に基づいて、管理者に通知するための結果を生成(又は算出)して出力部271から出力させる(ステップA10)。その後、ステップA1に戻り、新たな3次元点群データ100を取得する限り、ステップA1からステップA10のフローを繰り返し実行する。
Next, the
次に、実施形態1に係る物体検出システムにおける物体検出装置の除外処理(ステップA9)の詳細について図面を用いて説明する。図5は、実施形態1に係る物体検出システムの物体検出装置の除外処理の詳細を模式的に示したフローチャートである。なお、物体検出システムの詳細な構成については図2及びその説明を参照されたい。 Next, details of the object detection device exclusion process (step A9) in the object detection system according to the first embodiment will be described with reference to the drawings. FIG. 5 is a flowchart schematically showing details of exclusion processing of an object detection device of the object detection system according to the first embodiment. For the detailed configuration of the object detection system, see FIG. 2 and its description.
図4のステップA8の後の除外処理(ステップA9)では、まず、物体検出装置200の検出部240の除外処理部244の形態検出部251は、検出処理部242で検出された全て検出対象物体候補に係る点群に基づいて各検出対象物体候補の形態(例えば、形状、平面、平面の位置及び方向、平面の寸法範囲等)を検出する(ステップB1)。検出対象物体候補の形態の検出は、検出対象物体候補ごとに、検出対象物体候補に係る点群から可能な限り形態を検出する。 In the exclusion process (step A9) after step A8 in FIG. The form (eg, shape, plane, position and direction of the plane, size range of the plane, etc.) of each detection target object candidate is detected based on the point group of the candidate (step B1). Detection of the form of the detection target object candidate is performed by detecting the form of each detection target object candidate as much as possible from the point group related to the detection target object candidate.
次に、物体検出装置200の検出部240の除外処理部244の判定部252は、検出された各検出対象物体候補の形態のうち、除外条件指定部243で指定された除外条件に該当するものがあるか否かを判定する機能部である(ステップB2)。該当するものがない場合、検出対象物体候補の全てを検出対象物体として決定する。
Next, the
次に、物体検出装置200の検出部240の除外処理部244の除外部253は、判定部252で除外条件に該当すると判定された物体(検出除外物体;図1では列車23、24)を検出対象物体候補から除外して、検出対象物体(図1では作業員21、軌陸車22)を決定する(ステップB3)。その後、図4のステップA10に進むことになる。
Next, the
次に、実施形態1に係る物体検出システムにおける物体検出装置の動作を、比較例と対比しながら図面を用いて説明する。図6は、比較例に係る物体検出システムを用いて物体を検出する例を示したイメージ図である。なお、実施形態1に係る物体検出システムを用いて物体を検出する例については、図1を参照されたい。 Next, the operation of the object detection device in the object detection system according to Embodiment 1 will be described using the drawings while comparing with a comparative example. FIG. 6 is an image diagram showing an example of detecting an object using an object detection system according to a comparative example. Note that FIG. 1 should be referred to for an example of detecting an object using the object detection system according to the first embodiment.
比較例に係る物体検出システムは、実施形態1に係る物体検出システムの除外処理部(図2の244)がないシステムである。実施形態1に係る物体検出システムを用いて物体を検出したとき(図1参照)と同じ3次元点群データについて、比較例に係る物体検出システムを用いて物体を検出すると、図6のようになる。図1及び図6では、3条の線路11、12、13があり、奥側の2条の線路12、13について監視領域20が設定されており、線路12の軌陸車22の検出も行いたいために検出条件などは大きく設定している。
The object detection system according to the comparative example is a system without the exclusion processing unit (244 in FIG. 2) of the object detection system according to the first embodiment. For the same 3D point cloud data as when the object was detected using the object detection system according to the first embodiment (see FIG. 1), when the object is detected using the object detection system according to the comparative example, the result is as shown in FIG. Become. In FIGS. 1 and 6, there are three
しかしながら、図6の比較例では、除外処理がないので、検出条件に基づく検出処理のみでは、監視領域20の線路12の右端のように列車23の一部だけが入り込んだ状況で列車23を検出対象物体と誤検出してしまう可能性がある。また、図6の比較例では、線路13の左端のように、列車24の大部分は映り込んでいるものの、センサまでの距離や遮蔽物などが影響して、列車24の中間部の点群が途切れてしまった場合にも列車24を検出対象物体と誤検出してしまう可能性がある。
However, in the comparative example of FIG. 6, since there is no exclusion process, only the detection process based on the detection conditions detects the
ここで、軌陸車22は、列車23、24の車両1両の半分にも満たない長さではあるものの、線路11、12、13を走行する車両として列車23、24と共通しており、正面(運転席側の面、車掌席側の面)から見た場合(平面射影した場合)の縦横サイズが車両に酷似している。そのため、監視領域20の端に列車23、24の先頭部あるいは末尾部が撮影された場合(列車23、24の点群が監視領域20の端に位置する場合)や、列車23、24が3次元センサ300から遠くて撮像された3次元点群データに大きく疎な部分が存在した場合(遮蔽物などの影響で列車の点群が途切れた場合)、という少なくとも2つのケースで軌陸車22と列車23、24との識別が困難となり、列車23、24を軌陸車22と誤検出する可能性がある(図6参照)。また、監視領域20内の作業員21や軌陸車22の検出方法として、列車通過中は監視領域20を列車23、24が存在しない部分に限定し、列車通過後は再び全領域を元の監視領域20下にある状態に戻したいため、監視領域20の変更では誤検出に対処できない可能性がある。
Here, although the
一方、図1の実施形態1では、検出条件に基づいて検出処理を行って作業員21、軌陸車22、列車23、24を検出対象物体候補として検出し、その後、列車23、24の一部の形態(軌陸車22にはない列車23、24の特有の形態)を指定した除外条件を用いて除外処理することで、列車23、24を検出除外物体として選択的に除外することができ、作業員21、軌陸車22を検出対象物体として正しく検出することができる。また、図1の実施形態1では、寸法比較などの計算量の小さい条件による軽負荷な検出処理を行って検出物体数をふるいにかけておき、以降の除外処理に掛けられる母数を減少させた上で、複雑な物体個別の形態に基づく計算量の大きい除外条件による除外処理を行っているので、処理全体のリアルタイム性を損なうことなく検出対象物体の選択的な検出が行える。
On the other hand, in Embodiment 1 of FIG. 1, the detection process is performed based on the detection conditions to detect the
実施形態1によれば、検出除外物体の一部の特有の形態を指定した除外条件に基づいて除外処理を行っているので、監視領域20内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる。図1の例では、3次元センサ300を活用して鉄道工事現場において監視領域20(危険領域)への侵入検出を実施する際、作業員21と軌陸車22のみを検出し、列車23、24は検出から除外することができる。
According to the first embodiment, the exclusion process is performed based on the exclusion condition that designates the particular shape of a part of the detection exclusion object. can also contribute to identifying and detecting objects. In the example of FIG. 1, when detecting an intrusion into the monitoring area 20 (dangerous area) at the railway construction site using the three-
また、実施形態1によれば、任意の物体を検出するための検出条件の指定、及び、検出しないための除外条件の指定が行えるので、物体の選択的な検出の正確性を向上させることができる。 In addition, according to the first embodiment, it is possible to specify a detection condition for detecting an arbitrary object and specify an exclusion condition for not detecting it, so it is possible to improve the accuracy of selective object detection. can.
[実施形態2]
実施形態2に係る物体検出装置について図面を用いて説明する。図7は、実施形態2に係る物体検出装置の構成を模式的に示したブロック図である。
[Embodiment 2]
An object detection device according to Embodiment 2 will be described with reference to the drawings. FIG. 7 is a block diagram schematically showing the configuration of the object detection device according to the second embodiment.
物体検出装置200は、現場の3次元点群データ100に基づいて、監視領域における検出除外物体を選択的に除外して、監視領域20における検出除外物体以外の検出対象物体を検出する装置である。物体検出装置200は、入力部272と、監視領域指定部220と、基準面決定部230と、検出部240と、を備える。
The
入力部272は、ユーザの操作を受けるように構成されている。監視領域指定部220は、入力部272からの指定情報に基づいて、現場に係る3次元点群データ100に対して監視領域を指定するように構成されている。基準面決定部230は、3次元点群データ100における監視領域内の点群に基づいて基準面を決定するように構成されている。検出部240は、3次元点群データ100における監視領域内の点群のうち基準面上の点群に基づいて、入力部272からの条件情報に合致した検出対象物体を選択的に検出するように構成されている。
The
検出部240は、検出条件指定部241と、検出処理部242と、除外条件指定部243と、除外処理部244と、を備える。検出条件指定部241は、条件情報に基づいて検出対象物体候補の検出条件を指定するように構成されている。検出処理部242は、3次元点群データ100における監視領域内の点群に基づいて、検出条件を満たす検出対象物体候補を検出するように構成されている。除外条件指定部243は、条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成されている。除外処理部244は、検出された検出対象物体候補に係る点群に基づいて、指定された除外条件に合致した検出除外物体を検出対象物体候補から除外処理して検出対象物体を決定するように構成されている。
The
実施形態2によれば、検出除外物体の一部の特有の形態を含む除外条件に基づいて除外処理を行っているので、監視領域20内の物体に係る情報が部分的又は疎な場合にも物体を識別して検出することに貢献することができる。 According to the second embodiment, the exclusion process is performed based on the exclusion condition including the specific shape of a part of the detection excluded object. It can contribute to identifying and detecting objects.
なお、実施形態1、2に係る物体検出装置は、いわゆるハードウェア資源(情報処理装置、コンピュータ)により構成することができ、図8に例示する構成を備えたものを用いることができる。例えば、ハードウェア資源1000は、内部バス1004により相互に接続される、プロセッサ1001、メモリ1002、ネットワークインタフェイス1003等を備える。
Note that the object detection apparatuses according to the first and second embodiments can be configured by so-called hardware resources (information processing apparatus, computer), and those having the configuration illustrated in FIG. 8 can be used. For example,
なお、図8に示す構成は、ハードウェア資源1000のハードウェア構成を限定する趣旨ではない。ハードウェア資源1000は、図示しないハードウェア(例えば、入出力インタフェイス)を含んでもよい。あるいは、装置に含まれるプロセッサ1001等のユニットの数も図8の例示に限定する趣旨ではなく、例えば、複数のプロセッサ1001がハードウェア資源1000に含まれていてもよい。プロセッサ1001には、例えば、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等を用いることができる。
Note that the configuration shown in FIG. 8 is not intended to limit the hardware configuration of the
メモリ1002には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いることができる。
For the
ネットワークインタフェイス1003には、例えば、LAN(Local Area Network)カード、ネットワークアダプタ、ネットワークインタフェイスカード等を用いることができる。
For the
ハードウェア資源1000の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ1002に格納されたプログラムをプロセッサ1001が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェアにおいてソフトウェアが実行されることによって実現できればよい。
The functions of the
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described in the following appendices, but are not limited to the following.
[付記1]
ユーザの操作を受けるように構成された入力部と、
前記入力部からの指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するように構成された監視領域指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するように構成された基準面決定部と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、前記入力部からの条件情報に合致した検出対象物体を選択的に検出するように構成された検出部と、
を備え、
前記検出部は、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するように構成された検出条件指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するように構成された検出処理部と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成された除外条件指定部と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するように構成された除外処理部と、
を備える、
物体検出装置。
[付記2]
前記検出処理部は、
前記3次元点群データにおける前記監視領域以外の領域の点群を削除し、かつ、前記監視領域内の点群から前記基準面に係る点群を削除して点群のグループ分けを行う処理と、
グループ分けされた点群に基づいて1セグメント1物体として物体を検出する処理と、
検出された物体に係る点群に基づいて、前記検出条件を満たす物体を検出対象物体候補として検出する処理と、
を行うように構成されている、
付記1記載の物体検出装置。
[付記3]
前記除外処理部は、前記検出処理部で検出された前記検出対象物体候補の全てを1つずつ除外処理するように構成されている、
付記1又は2記載の物体検出装置。
[付記4]
前記除外処理部は、
検出された前記検出対象物体候補に係る点群に基づいて各前記検出対象物体候補の形態を検出するように構成された形態検出部と、
検出された各前記検出対象物体候補の形態のうち、前記除外条件に該当するものがあるか否かを判定するように構成された判定部と、
前記除外条件に該当すると判定された前記検出除外物体を検出対象物体候補から除外して、前記検出対象物体を決定するように構成された除外部と、
を備える、
付記1乃至3のいずれか一に記載の物体検出装置。
[付記5]
前記基準面決定部は、
前記3次元点群データにおける前記監視領域内の点群に基づいて1つ以上の平面を検出するように構成された平面検出部と、
前記入力部からの選択情報に基づいて、前記1つ以上の平面の中から少なくとも1つの前記基準面を選択するように構成された基準面選択部と、
を備える、
付記1乃至4のいずれか一に記載の物体検出装置。
[付記6]
少なくとも前記監視領域、前記基準面、前記検出条件、及び前記除外条件を用いて、前記検出対象物体の検出に関する結果を生成するように構成された結果生成部と、
少なくとも前記結果を出力するように構成された出力部と、
をさらに備える、
付記1乃至5のいずれか一に記載の物体検出装置。
[付記7]
前記検出処理部は、前記検出対象物体に係る点群にラベル付けを行うように構成され、
前記結果生成部は、前記ラベルの有無により前記検出対象物体の有無を判定し、前記検出対象物体がある場合には警告情報を生成するように構成され、
前記出力部は、前記警告情報を出力するように構成されている、
付記6記載の物体検出装置。
[付記8]
付記1乃至7のいずれか一に記載の物体検出装置と、
前記物体検出装置と通信可能に接続されるとともに、現場を撮影する3次元センサと、
を備える物体検出システム。
[付記9]
ハードウェア資源を用いて物体を検出する物体検出方法であって、
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するステップと、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出するステップと、
を含み、
前記検出するステップでは、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するステップと、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するステップと、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するステップと、
を含む、
物体検出方法。
[付記10]
物体を検出する処理をハードウェア資源に実行させるプログラムであって、
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定する処理と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出する処理と、
を前記ハードウェア資源に実行させ、
前記検出する処理では、
前記条件情報に基づいて検出対象物体候補の検出条件を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出する処理と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する処理と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定する処理と、
を実行する、
プログラム。
[Appendix 1]
an input unit configured to receive a user's operation;
a monitoring area designation unit configured to designate a monitoring area for three-dimensional point cloud data relating to a site based on designation information from the input unit;
a reference plane determination unit configured to determine a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
It is configured to selectively detect a detection target object that matches the condition information from the input unit based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data. a detector,
with
The detection unit is
a detection condition specifying unit configured to specify a detection condition for a detection target object candidate based on the condition information;
a detection processing unit configured to detect a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring region in the three-dimensional point cloud data;
an exclusion condition specifying unit configured to specify an exclusion condition including a particular form of a detection exclusion object based on the condition information;
The detection target object is determined by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate. an exclusion processing unit;
comprising
Object detection device.
[Appendix 2]
The detection processing unit is
a process of deleting point groups in areas other than the monitoring area in the three-dimensional point cloud data, and deleting point groups related to the reference plane from the point clouds in the monitoring area to group the point clouds; ,
A process of detecting an object as one segment and one object based on the grouped point cloud;
A process of detecting an object that satisfies the detection condition as a detection target object candidate based on a point cloud related to the detected object;
is configured to do
The object detection device according to appendix 1.
[Appendix 3]
The exclusion processing unit is configured to exclude all of the detection target object candidates detected by the detection processing unit one by one.
3. The object detection device according to appendix 1 or 2.
[Appendix 4]
The exclusion processing unit
a form detection unit configured to detect the form of each of the detection target object candidates based on the detected point cloud associated with the detection target object candidates;
a determination unit configured to determine whether or not there is a configuration of each of the detected detection target object candidates that satisfies the exclusion condition;
an exclusion unit configured to determine the detection target object by excluding the detection exclusion object determined to meet the exclusion condition from detection target object candidates;
comprising
4. The object detection device according to any one of appendices 1 to 3.
[Appendix 5]
The reference plane determination unit
a plane detector configured to detect one or more planes based on the point cloud within the monitored area in the three-dimensional point cloud data;
a reference plane selection unit configured to select at least one of the reference planes from among the one or more planes based on selection information from the input unit;
comprising
5. The object detection device according to any one of appendices 1 to 4.
[Appendix 6]
a result generation unit configured to generate a result regarding detection of the detection target object using at least the monitoring area, the reference plane, the detection condition, and the exclusion condition;
an output unit configured to output at least the result;
further comprising
6. The object detection device according to any one of Appendices 1 to 5.
[Appendix 7]
The detection processing unit is configured to label a point cloud related to the detection target object,
The result generation unit is configured to determine the presence or absence of the detection target object based on the presence or absence of the label, and to generate warning information when the detection target object is present,
The output unit is configured to output the warning information,
The object detection device according to appendix 6.
[Appendix 8]
The object detection device according to any one of Appendices 1 to 7;
a three-dimensional sensor that is communicatively connected to the object detection device and that captures a scene;
An object detection system comprising:
[Appendix 9]
An object detection method for detecting an object using hardware resources,
Designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
determining a reference plane based on a point cloud within the monitoring area in the three-dimensional point cloud data;
a step of selectively detecting a detection target object that matches input condition information based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
including
In the detecting step,
designating a detection condition for a detection target object candidate based on the condition information;
a step of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
determining the detection target object by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate;
including,
Object detection method.
[Appendix 10]
A program that causes a hardware resource to execute processing for detecting an object,
A process of designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
a process of determining a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of selectively detecting a detection target object that matches input condition information based on a point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
causing the hardware resource to execute
In the detecting process,
a process of designating detection conditions for detection target object candidates based on the condition information;
a process of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
a process of excluding a detection-excluded object that meets the specified exclusion condition from the detection-target-object candidates based on the point cloud related to the detected detection-target-object candidate, and determining the detection-target object;
run the
program.
なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(特許請求の範囲及び図面を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択(必要により不選択)が可能である。すなわち、本発明は、請求の範囲及び図面を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、本願に記載の数値及び数値範囲については、明記がなくともその任意の中間値、下位数値、及び、小範囲が記載されているものとみなされる。さらに、上記引用した文献の各開示事項は、必要に応じ、本願発明の趣旨に則り、本願発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれる(属する)ものと、みなされる。 It should be noted that each disclosure of the above patent documents is incorporated herein by reference and can be used as the basis or part of the present invention as necessary. Within the framework of the entire disclosure of the present invention (including claims and drawings), modifications and adjustments of the embodiments and examples are possible based on the basic technical concept thereof. Also, various combinations or selections of various disclosure elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the framework of the full disclosure of the present invention (if necessary not selected) is possible. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including the claims and drawings and the technical idea. Also, with regard to numerical values and numerical ranges described in this application, it is assumed that any intermediate values, sub-numerical values and sub-ranges thereof are described even if not specified. Furthermore, each disclosure item of the above-cited document may be used in combination with the items described in this document as a part of the disclosure of the present invention in accordance with the spirit of the present invention, if necessary. are considered to be included in (belong to) the disclosure of the present application.
1 物体検出システム
10 撮影現場
11 第1線路
12 第2線路
13 第3線路
14 地面
20 監視領域
21 作業員(検出対象物体)
22 軌陸車(検出対象物体)
23、24 列車(検出除外物体)
25 作業員(非検出対象物体)
31 第1線路点群
32 第2線路点群
33 第3線路点群
34 地面点群
41 作業員点群(検出対象物体点群)
42 軌陸車点群(検出対象物体点群)
43、44a、44b 列車点群(検出除外物体点群)
45 作業員点群(非検出対象物体点群)
53、54a、54b 列車点群(検出対象物体点群)
61 作業員検出枠
62 軌陸車検出枠
63、64a、64b 列車検出枠
100 3次元点群データ
200 物体検出装置
210 前処理部
211 フォーマット変換部
212 ノイズ除去部
220 監視領域指定部
221 範囲指定部
222 角度指定部
230 基準面決定部
231 平面検出部
232 基準面選択部
233 基準面記憶部
240 検出部
241 検出条件指定部
242 検出処理部
243 除外条件指定部
244 除外処理部
251 形態検出部
252 判定部
253 除外部
260 結果生成部
261 諸元算出部
262 図形生成部
270 ユーザインタフェイス部
271 出力部
272 入力部
273 警報部
300 3次元センサ
1000 ハードウェア資源
1001 プロセッサ
1002 メモリ
1003 ネットワークインタフェイス
1004 内部バス
Reference Signs List 1
22 Rail vehicle (object to be detected)
23, 24 trains (objects excluded from detection)
25 worker (non-detection object)
31 First
42 Rail-road vehicle point cloud (detection target object point cloud)
43, 44a, 44b Train point cloud (detection exclusion object point cloud)
45 Worker point cloud (non-detection target object point cloud)
53, 54a, 54b train point cloud (detection target object point cloud)
61
Claims (10)
前記入力部からの指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するように構成された監視領域指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するように構成された基準面決定部と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、前記入力部からの条件情報に合致した検出対象物体を選択的に検出するように構成された検出部と、
を備え、
前記検出部は、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するように構成された検出条件指定部と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するように構成された検出処理部と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するように構成された除外条件指定部と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するように構成された除外処理部と、
を備える、
物体検出装置。 an input unit configured to receive a user's operation;
a monitoring area designation unit configured to designate a monitoring area for three-dimensional point cloud data relating to a site based on designation information from the input unit;
a reference plane determination unit configured to determine a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
It is configured to selectively detect a detection target object that matches the condition information from the input unit based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data. a detector,
with
The detection unit is
a detection condition specifying unit configured to specify a detection condition for a detection target object candidate based on the condition information;
a detection processing unit configured to detect a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring region in the three-dimensional point cloud data;
an exclusion condition specifying unit configured to specify an exclusion condition including a particular form of a detection exclusion object based on the condition information;
The detection target object is determined by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate. an exclusion processing unit;
comprising
Object detection device.
前記3次元点群データにおける前記監視領域以外の領域の点群を削除し、かつ、前記監視領域内の点群から前記基準面に係る点群を削除して点群のグループ分けを行う処理と、
グループ分けされた点群に基づいて1セグメント1物体として物体を検出する処理と、
検出された物体に係る点群に基づいて、前記検出条件を満たす物体を検出対象物体候補として検出する処理と、
を行うように構成されている、
請求項1記載の物体検出装置。 The detection processing unit is
a process of deleting point groups in areas other than the monitoring area in the three-dimensional point cloud data, and deleting point groups related to the reference plane from the point clouds in the monitoring area to group the point clouds; ,
A process of detecting an object as one segment and one object based on the grouped point cloud;
A process of detecting an object that satisfies the detection condition as a detection target object candidate based on a point cloud related to the detected object;
is configured to do
The object detection device according to claim 1.
請求項1又は2記載の物体検出装置。 The exclusion processing unit is configured to exclude all of the detection target object candidates detected by the detection processing unit one by one.
3. The object detection device according to claim 1 or 2.
検出された前記検出対象物体候補に係る点群に基づいて各前記検出対象物体候補の形態を検出するように構成された形態検出部と、
検出された各前記検出対象物体候補の形態のうち、前記除外条件に該当するものがあるか否かを判定するように構成された判定部と、
前記除外条件に該当すると判定された前記検出除外物体を検出対象物体候補から除外して、前記検出対象物体を決定するように構成された除外部と、
を備える、
請求項1乃至3のいずれか一に記載の物体検出装置。 The exclusion processing unit
a form detection unit configured to detect the form of each of the detection target object candidates based on the detected point cloud associated with the detection target object candidates;
a determination unit configured to determine whether or not there is a configuration of each of the detected detection target object candidates that satisfies the exclusion condition;
an exclusion unit configured to determine the detection target object by excluding the detection exclusion object determined to meet the exclusion condition from detection target object candidates;
comprising
The object detection device according to any one of claims 1 to 3.
前記3次元点群データにおける前記監視領域内の点群に基づいて1つ以上の平面を検出するように構成された平面検出部と、
前記入力部からの選択情報に基づいて、前記1つ以上の平面の中から少なくとも1つの前記基準面を選択するように構成された基準面選択部と、
を備える、
請求項1乃至4のいずれか一に記載の物体検出装置。 The reference plane determination unit
a plane detector configured to detect one or more planes based on the point cloud within the monitored area in the three-dimensional point cloud data;
a reference plane selection unit configured to select at least one of the reference planes from among the one or more planes based on selection information from the input unit;
comprising
The object detection device according to any one of claims 1 to 4.
少なくとも前記結果を出力するように構成された出力部と、
をさらに備える、
請求項1乃至5のいずれか一に記載の物体検出装置。 a result generation unit configured to generate a result regarding detection of the detection target object using at least the monitoring area, the reference plane, the detection condition, and the exclusion condition;
an output unit configured to output at least the result;
further comprising
The object detection device according to any one of claims 1 to 5.
前記結果生成部は、前記ラベルの有無により前記検出対象物体の有無を判定し、前記検出対象物体がある場合には警告情報を生成するように構成され、
前記出力部は、前記警告情報を出力するように構成されている、
請求項6記載の物体検出装置。 The detection processing unit is configured to label a point cloud related to the detection target object,
The result generation unit is configured to determine the presence or absence of the detection target object based on the presence or absence of the label, and to generate warning information when the detection target object is present,
The output unit is configured to output the warning information,
The object detection device according to claim 6.
前記物体検出装置と通信可能に接続されるとともに、現場を撮影する3次元センサと、
を備える物体検出システム。 an object detection device according to any one of claims 1 to 7;
a three-dimensional sensor that is communicatively connected to the object detection device and that captures a scene;
An object detection system comprising:
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定するステップと、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出するステップと、
を含み、
前記検出するステップでは、
前記条件情報に基づいて検出対象物体候補の検出条件を指定するステップと、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出するステップと、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定するステップと、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定するステップと、
を含む、
物体検出方法。 An object detection method for detecting an object using hardware resources,
Designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
determining a reference plane based on a point cloud within the monitoring area in the three-dimensional point cloud data;
a step of selectively detecting a detection target object that matches input condition information based on the point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
including
In the detecting step,
designating a detection condition for a detection target object candidate based on the condition information;
a step of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
determining the detection target object by excluding a detection exclusion object that meets the specified exclusion condition from the detection target object candidates, based on the point cloud related to the detected detection target object candidate;
including,
Object detection method.
入力された指定情報に基づいて、現場に係る3次元点群データに対して監視領域を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて基準面を決定する処理と、
前記3次元点群データにおける前記監視領域内の点群のうち前記基準面上の点群に基づいて、入力された条件情報に合致した検出対象物体を選択的に検出する処理と、
を前記ハードウェア資源に実行させ、
前記検出する処理では、
前記条件情報に基づいて検出対象物体候補の検出条件を指定する処理と、
前記3次元点群データにおける前記監視領域内の点群に基づいて、前記検出条件を満たす検出対象物体候補を検出する処理と、
前記条件情報に基づいて、検出除外物体の一部の特有の形態を含む除外条件を指定する処理と、
検出された前記検出対象物体候補に係る点群に基づいて、指定された前記除外条件に合致した検出除外物体を検出対象物体候補から除外処理して前記検出対象物体を決定する処理と、
を実行する、
プログラム。 A program that causes a hardware resource to execute processing for detecting an object,
A process of designating a monitoring area for 3D point cloud data related to the site based on the input designation information;
a process of determining a reference plane based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of selectively detecting a detection target object that matches input condition information based on a point group on the reference plane among the point groups in the monitoring area in the three-dimensional point group data;
causing the hardware resource to execute
In the detecting process,
a process of designating detection conditions for detection target object candidates based on the condition information;
a process of detecting a detection target object candidate that satisfies the detection condition based on the point cloud within the monitoring area in the three-dimensional point cloud data;
a process of designating an exclusion condition including a particular shape of a part of an object excluded from detection based on the condition information;
a process of excluding a detection-excluded object that meets the specified exclusion condition from the detection-target-object candidates based on the point cloud related to the detected detection-target-object candidate, and determining the detection-target object;
run the
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021142279A JP2023035434A (en) | 2021-09-01 | 2021-09-01 | Object detection device, system, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021142279A JP2023035434A (en) | 2021-09-01 | 2021-09-01 | Object detection device, system, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023035434A true JP2023035434A (en) | 2023-03-13 |
Family
ID=85504176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021142279A Pending JP2023035434A (en) | 2021-09-01 | 2021-09-01 | Object detection device, system, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023035434A (en) |
-
2021
- 2021-09-01 JP JP2021142279A patent/JP2023035434A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11941887B2 (en) | Scenario recreation through object detection and 3D visualization in a multi-sensor environment | |
JP7167397B2 (en) | Method and apparatus for processing point cloud data | |
US10210286B1 (en) | Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets | |
CN103260009B (en) | Image monitoring device, surveillance and surveillance construction method | |
US10885775B2 (en) | Monitoring a scene to analyze an event using a plurality of image streams | |
EP3098754A1 (en) | Video camera scene translation | |
Chi et al. | A methodology for object identification and tracking in construction based on spatial modeling and image matching techniques | |
JP2019022205A (en) | Sensing data processing system, edge server therefor, method for reducing transmission traffic and program | |
EP2709066A1 (en) | Concept for detecting a motion of a moving object | |
JP2018160219A (en) | Moving route prediction device and method for predicting moving route | |
CN109360362A (en) | A kind of railway video monitoring recognition methods, system and computer-readable medium | |
CN112530021A (en) | Method, apparatus, device and storage medium for processing data | |
JP2023524623A (en) | Method, apparatus, equipment, storage medium and program for detecting traffic anomalies | |
Yu et al. | Training-free monocular 3d event detection system for traffic surveillance | |
JPH11257931A (en) | Object recognizing device | |
KR102163774B1 (en) | Apparatus and method for image recognition | |
KR101758786B1 (en) | Apparatus for determining location of special point in image and method thereof | |
KR101736431B1 (en) | System and Method for Smart Traffic Monitoring Using Multiple Image | |
JP2023035434A (en) | Object detection device, system, method, and program | |
WO2023166411A1 (en) | Automatic digital inspection of railway environment | |
EP2709065A1 (en) | Concept for counting moving objects passing a plurality of different areas within a region of interest | |
CN116563801A (en) | Traffic accident detection method, device, electronic equipment and medium | |
KR102030736B1 (en) | Apparatus for analyzing Multi-Distributed Video Data | |
JP7405395B2 (en) | Object detection device, system, method, and program | |
KR101117235B1 (en) | Apparatus and method for recognizing traffic accident |