JP7294323B2 - Moving body management device, moving body management system, moving body management method, and computer program - Google Patents
Moving body management device, moving body management system, moving body management method, and computer program Download PDFInfo
- Publication number
- JP7294323B2 JP7294323B2 JP2020510659A JP2020510659A JP7294323B2 JP 7294323 B2 JP7294323 B2 JP 7294323B2 JP 2020510659 A JP2020510659 A JP 2020510659A JP 2020510659 A JP2020510659 A JP 2020510659A JP 7294323 B2 JP7294323 B2 JP 7294323B2
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- moving
- unit
- moving object
- bodies
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラムに関する。本出願は、2018年3月29日出願の日本出願第2018-063865号に基づく優先権を主張し、前記日本出願に記載された全ての内容を援用するものである。 The present invention relates to a moving body management device, a moving body management system, a moving body management method, and a computer program. This application claims priority based on Japanese application No. 2018-063865 filed on March 29, 2018, and incorporates all the contents described in the Japanese application.
車両を運行する際には、自車の動きだけではなく、他車の動きにも十分に注意する必要がある。車両に加えて、歩行者が存在している場合には特に注意が必要である。従来、このような移動物体(以下、「動体」と呼ぶ。)を検知する技術として、後掲の特許文献1に開示された技術がある。
When operating a vehicle, it is necessary to pay sufficient attention not only to the movement of the own vehicle but also to the movement of other vehicles. Particular attention should be paid when pedestrians are present in addition to vehicles. Conventionally, as a technique for detecting such a moving object (hereinafter referred to as "moving object"), there is a technique disclosed in
特許文献1には、街頭に設置された監視カメラなどの複数のセンサを用い、一方のセンサで検知された測定結果によって、他方のセンサの対象物に影響を与える情報を取得し、複数のセンサから取得した様々な計測結果を統合した形で保持することによって、システム全体の性能向上を図るシステムが開示されている。
In
本開示の一態様に係る動体管理装置は、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含む。 A moving body management apparatus according to an aspect of the present disclosure includes: a first moving body detection unit that detects one or more first moving bodies in a first period based on a first signal received from the outside; a second moving body detection unit that detects one or more second moving bodies in a second period longer than the first period based on the obtained second signal; one of the first moving bodies; an integration processing unit that performs a process of integrating the one first moving body and the one second moving body when they are the same as the second moving body in a cycle shorter than the second cycle; A notification unit for notifying information about a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a vehicle based on the processing result of the processing unit and that satisfies the predetermined condition for the vehicle. including.
本開示の一の態様に係る動体管理システムは、上述の動体管理装置と、前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む。 A moving body management system according to an aspect of the present disclosure includes the above-described moving body management apparatus, and a distance measurement signal indicating a distance to a surrounding object in the first period to the first moving body detection unit. and a second sensor that transmits, as the second signal, an image signal representing an image of the imaging range in the second period to the second moving object detection unit.
本開示の一の態様に係る動体管理方法は、コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含む。 A moving object management method according to one aspect of the present disclosure includes a first moving object detection step in which a computer detects one or more first moving objects in a first period based on a first signal received from the outside; , a second moving body detection step in which the computer detects one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; When the first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed in a period shorter than the second period. an integration processing step that is executed periodically; and a computer, based on the processing result of the integration processing step, detects a moving object that has a predetermined attribute and is located in a position that satisfies predetermined conditions for a vehicle. and a reporting step of reporting information about the moving body that satisfies the predetermined condition.
本開示の一の態様に係るコンピュータプログラムは、コンピュータに、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させる。 A computer program according to an aspect of the present disclosure provides a computer with a first moving object detection step of detecting one or more first moving objects in a first cycle based on a first signal received from the outside; a second moving body detection step of detecting one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; one of the first moving bodies; an integration processing step of executing the processing of integrating the one first moving object and the one second moving object in a cycle shorter than the second cycle when the one second moving object is the same Then, based on the processing result of the integration processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies predetermined conditions for a certain vehicle, information regarding the moving object that satisfies the predetermined conditions for the certain vehicle is obtained. and a reporting step of reporting.
本開示の他の態様に係る動体管理装置は、第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、前記プロセッサは、前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされている。 A moving object management apparatus according to another aspect of the present disclosure receives the ranging signal from a distance sensor that measures the distance to a surrounding object in a first period and transmits the ranging signal, and the period is longer than the first period. a receiving unit connected so as to be able to receive the image signal from an imaging device that transmits an image signal representing an image of an imaging range in a second cycle; and the receiving unit capable of reading information received by the receiving unit. a processor connected to a first moving object detection step of detecting one or more first moving objects based on the ranging signal; and one or more first moving objects based on the image signal. When the second moving body detection step of detecting two moving bodies, the one first moving body, and the one second moving body are the same, the one first moving body and the one second moving body are the same. an integration processing step of performing processing for integrating the two moving bodies in a cycle shorter than the second cycle; and a vehicle having a predetermined attribute and satisfying a predetermined condition for a certain vehicle based on the processing result of the integration processing step. and a notification step of notifying the certain vehicle of information regarding the moving body that satisfies the predetermined condition.
本開示は、このような特徴的な処理部を備える動体管理装置、かかる特徴的な処理をステップとする動体管理方法、及びかかる特徴的な処理をコンピュータに実行させるためのプログラムとして実現することができる。また、かかるステップの一部又は全部を実行する機能を有する半導体集積回路として実現したり、動体管理装置を含む動体管理システムとして実現したりすることができる。 The present disclosure can be implemented as a moving body management apparatus including such a characteristic processing unit, a moving body management method having steps of such characteristic processing, and a program for causing a computer to execute such characteristic processing. can. Moreover, it can be realized as a semiconductor integrated circuit having a function of executing some or all of these steps, or as a moving body management system including a moving body management device.
<本開示が解決しようとする課題>
特許文献1に開示された発明は、複数のセンサの計測結果を統合することでシステム全体の性能向上を図る点で優れたものといえる。しかし、特許文献1は、個々のセンサの性能の相違及び特性を十分に考慮していないという問題がある。<Problems to be solved by the present disclosure>
The invention disclosed in
例えば特許文献1には、センサとして画像センサ(カメラ等)、距離センサ(レーザレーダ)等が挙げられている。特許文献1では、これらから得た情報を統合することによりシステム全体の性能向上を目指している。しかし、例えば距離センサの場合、その出力を処理して動体の位置を検出するためには短い時間しか必要としないのに対し、画像センサから得た画像から動体の属性等を示す情報を導き出すためには、比較的長い処理時間が必要な画像処理を行う必要がある。そのため、特許文献1に開示された発明による処理速度は、結局画像センサの出力に対する画像処理により律速されてしまい、動体の位置の計測精度が十分に得られないという問題がある。
For example,
<本開示の効果>
本開示によれば、動体の管理をより精度高く行うことができる。<Effects of the present disclosure>
According to the present disclosure, moving objects can be managed with higher accuracy.
<本発明の実施形態の概要>
以下、本発明の実施形態の概要を列記して説明する。
(1) 本実施形態に係る動体管理装置は、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含む。<Overview of Embodiments of the Present Invention>
Hereinafter, the outline of the embodiments of the present invention will be listed and described.
(1) A moving body management apparatus according to the present embodiment includes: a first moving body detection unit that detects one or more first moving bodies in a first cycle based on a first signal received from the outside; a second moving body detection unit that detects one or more second moving bodies in a second period longer than the first period based on the received second signal; one first moving body; an integration processing unit that performs a process of integrating the one first moving body and the one second moving body when the second moving body is the same in a cycle shorter than the second cycle; Based on the result of processing by the integrated processing unit, a moving object that has a predetermined attribute and is located in a position that satisfies predetermined conditions for a certain vehicle is notified of information about the moving object that satisfies the predetermined conditions for the vehicle. including the part.
第2の動体検知部による詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知部による検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 A moving body determined to have a specific attribute with high reliability by the detailed attribute information by the second moving body detection unit can be accurately positioned and tracked using the detection result by the first moving body detection unit. As a result, moving objects can be managed with higher accuracy.
(2) 本実施形態に係る動体管理装置において、前記統合処理部は、1つの前記第1の動体の位置と、1つの前記第2の動体の位置が所定の条件を充足するときに、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定する位置判定部と、前記位置判定部によって同一と判定された前記1つの第1の動体及び前記1つの第2の動体を統合する統合部とを含んでもよい。 (2) In the moving body management apparatus according to the present embodiment, the integration processing unit, when one position of the first moving body and one position of the second moving body satisfy a predetermined condition, A position determination unit that determines whether one first moving body and one second moving body are the same, and the one first moving body and the one that are determined to be the same by the position determination unit. and an integration unit that integrates the second moving body.
統合処理部は、動体の位置に基づいて同一と判定された動体を統合する。位置計算は少ない計算量で行えるので、動体の数が多くなっても簡単な処理で高速に統合を実行できる。 The integration processing unit integrates moving objects determined to be identical based on the positions of the moving objects. Position calculation can be performed with a small amount of calculation, so even if the number of moving objects increases, simple processing can be performed at high speed.
(3) 本実施形態に係る動体管理装置において、前記位置判定部は、前記1つの第1の動体の前記位置と前記1つの第2の動体の前記位置に加えて、前記1つの第1の動体及び前記1つの第2の動体がそれぞれ前記第1の動体検知部及び前記第2の動体検知部により検知された時刻が所定の条件を充足するときに、前記1つの第1の動体と、前記1つの第2の動体とが一致するか否かを判定する位置・時間判定部を含んでもよい。 (3) In the moving body management apparatus according to the present embodiment, the position determination unit determines the position of the one first moving body and the position of the one second moving body, as well as the one first moving body. when the time at which the moving body and the one second moving body are detected by the first moving body detection unit and the second moving body detection unit, respectively, satisfy a predetermined condition, the one first moving body; A position/time determination unit may be included that determines whether or not the one second moving object matches.
位置に加えて時間まで含めて同一と判定された動体を統合するので、統合結果の信頼性が高くなる。検出された位置及び時間が近接している第1の動体と第2の動体とは同一のものである可能性が非常に高いためである。 Since the moving bodies determined to be identical in terms of time as well as position are integrated, the reliability of the integration result is increased. This is because there is a very high possibility that the first moving object and the second moving object whose detected positions and times are close to each other are the same.
(4) 本実施形態に係る動体管理装置において、前記統合部は、前記位置判定部により同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いて設定してもよい。 (4) In the moving body management apparatus according to the present embodiment, the integration unit combines the positions and attributes of the moving bodies determined to be identical by the position determining unit into the positions and attributes of the one first moving body and the one second moving body. may be set using the attribute of the moving object.
第1の動体検知部の出力と第2の動体検知部の出力との、他より優れた点を組合せるので、動体を統合した後の動体の追跡及び報知が的確に行える。 Since the output of the first moving body detection section and the output of the second moving body detection section are combined, the moving body can be accurately tracked and notified after the moving body is integrated.
(5) 本実施形態に係る動体管理装置において、前記統合部は、
前記第1の動体検知部によって検知される前記第1の動体の数と、前記第2の動体検知部によって検知される前記第2の動体の数とが一致するか否かを判定する動体数判定部と、前記動体数判定部による結果に基づいて、統合の対象となり得る前記第1の動体と前記第2の動体とのグループを決定するグループ決定部とを含み、前記位置判定部は、前記グループ決定部により決定されたグループに含まれる1つの前記第1の動体の位置と、前記グループに含まれる1つの前記第2の動体の位置が所定の条件を充足するか否かによって、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定するグループ内判定部を含んでもよい。(5) In the moving body management apparatus according to this embodiment, the integration unit
Number of moving bodies for determining whether the number of the first moving bodies detected by the first moving body detection unit and the number of the second moving bodies detected by the second moving body detection unit match a determination unit; and a group determination unit that determines a group of the first moving object and the second moving object to be integrated based on the result of the moving object number determination unit, the position determination unit comprising: Depending on whether the position of one of the first moving bodies included in the group determined by the group determination unit and the position of one of the second moving bodies included in the group satisfy a predetermined condition, the An intra-group determination unit that determines whether one first moving object and one second moving object are the same may be included.
第1の動体検知部により検知された動体と第2の動体検知部により検知された動体の数とを比較し、その結果に応じて統合方法を変える。したがって、動体の検知結果に応じて最適な方法で動体の統合を行うことができる。 The number of moving bodies detected by the first moving body detection section and the number of moving bodies detected by the second moving body detection section are compared, and the integration method is changed according to the result. Therefore, it is possible to integrate the moving objects by an optimum method according to the detection result of the moving objects.
(6) 本実施形態に係る動体管理装置において、前記統合処理部はさらに、前記グループ内判定部が前記グループに含まれる前記1つの第1の動体が前記グループに含まれる前記1つの第2の動体と同一であると判定せず、又は、前記グループに含まれる前記1つの第2の動体が前記グループに含まれる前記1つの第1の動体と同一であると判定しない場合に、前記1つの第1の動体及び前記1つの第2の動体に関する情報のうちで値が設定されていないものに既定の値を設定することにより統合後の動体を生成する既定値設定部を含んでもよい。 (6) In the moving body management apparatus according to the present embodiment, the integration processing unit further includes the in-group determining unit for determining the one second moving body in which the one first moving body included in the group is included in the group. If it is not determined to be the same as the moving body, or if it is not determined that the one second moving body included in the group is the same as the one first moving body included in the group, the one A default value setting unit may be included for generating a moving body after integration by setting a default value to information about the first moving body and the one second moving body for which no value is set.
他の動体と組合されなかった動体でも統合後の解析結果に含まれるので、動体の見落としがなくなる。その結果、車両にとってより安全な動体管理を行うことができる。 Since even a moving body that is not combined with other moving bodies is included in the analysis results after integration, there is no chance of overlooking a moving body. As a result, safer moving object management can be performed for the vehicle.
(7) 本実施形態に係る動体管理装置において、前記報知部は、所定領域内の車両の位置を検知する車両位置検知部と、前記統合処理部の処理結果及び前記車両位置検知部の検知結果に基づいて、所定の属性を持つ動体を中心とする所定範囲内に位置する車両があるときに、前記車両に対して前記所定の条件を満たす動体に関する警告を報知する警告部とを含んでもよい。 (7) In the moving body management apparatus according to the present embodiment, the notification unit includes a vehicle position detection unit that detects the position of the vehicle within a predetermined area, a processing result of the integration processing unit, and a detection result of the vehicle position detection unit. and a warning unit that issues a warning regarding a moving body that satisfies the predetermined condition to the vehicle when there is a vehicle located within a predetermined range centered on the moving body having a predetermined attribute based on .
所定の属性を持つ動体から所定範囲内にある車両に、適時に注意すべき動体について的確な警告を報知できる。 A vehicle within a predetermined range from a moving body having a predetermined attribute can be appropriately warned of a moving body that requires attention.
(8) 本実施形態に係る動体管理システムは、(1)~(7)のいずれか1つに記載の動体管理装置と、前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む。 (8) A moving body management system according to the present embodiment includes the moving body management device according to any one of (1) to (7), and a ranging signal indicating a distance to a surrounding object in the first period. a first sensor that transmits as the first signal to the first moving body detection unit; and an image signal that indicates an image of an imaging range in the second period as the second signal that is transmitted to the second moving body detection unit. and a transmitting second sensor.
第1のセンサ及び第2のセンサの出力を動体管理装置に送信すると、動体管理装置の第2の動体検知部による詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、動体管理装置の第1の動体検知部による検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 When the outputs of the first sensor and the second sensor are transmitted to the moving body management device, the moving body determined to have the specific attribute with high reliability by the detailed attribute information by the second moving body detection unit of the moving body management device , the position can be determined and tracked with high accuracy using the detection result of the first moving body detection unit of the moving body management apparatus. As a result, moving objects can be managed with higher accuracy.
(9) 本実施形態に係る動体管理方法は、コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含む。 (9) A moving object management method according to the present embodiment includes a first moving object detection step in which a computer detects one or more first moving objects in a first period based on a first signal received from the outside; , a second moving body detection step in which the computer detects one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; When the first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed in a period shorter than the second period. an integration processing step that is executed periodically; and a computer, based on the processing result of the integration processing step, detects a moving object that has a predetermined attribute and is located in a position that satisfies predetermined conditions for a vehicle. and a reporting step of reporting information about the moving body that satisfies the predetermined condition.
この動体管理方法の第2の動体検知ステップによる詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知ステップによる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 With respect to a moving body determined to have a specific attribute with high reliability by the detailed attribute information in the second moving body detection step of this moving body management method, the position is determined with high accuracy using the detection result of the first moving body detection step. can be traced. As a result, moving objects can be managed with higher accuracy.
(10) 本実施形態に係るコンピュータプログラムは、コンピュータに、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させる。 (10) The computer program according to the present embodiment provides a computer with a first moving object detection step of detecting one or more first moving objects in a first cycle based on a first signal received from the outside; a second moving body detection step of detecting one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; one of the first moving bodies; an integration processing step of executing the processing of integrating the one first moving object and the one second moving object in a cycle shorter than the second cycle when the one second moving object is the same Then, based on the processing result of the integration processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies predetermined conditions for a certain vehicle, information regarding the moving object that satisfies the predetermined conditions for the certain vehicle is obtained. and a reporting step of reporting.
このコンピュータプログラムが第2の動体検知ステップを実行して得られる詳細な属性情報により、高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知ステップを実行して得られる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 This computer program executes the first moving body detection step for a moving body determined to have a specific attribute with high reliability from detailed attribute information obtained by executing the second moving body detection step. The detection results can be used to accurately locate and track. As a result, moving objects can be managed with higher accuracy.
(11) 本実施形態に係る動体管理装置は、第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、前記プロセッサは、前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされている。 (11) The moving object management apparatus according to the present embodiment receives the ranging signal from a distance sensor that measures the distance to a surrounding object in a first period and transmits the ranging signal, and receives the ranging signal in a period longer than the first period. a receiving unit connected so as to be able to receive the image signal from an imaging device that transmits an image signal representing an image of an imaging range in a second cycle; and the receiving unit capable of reading information received by the receiving unit. a processor connected to a first moving object detection step of detecting one or more first moving objects based on the ranging signal; and one or more first moving objects based on the image signal. When the second moving body detection step of detecting two moving bodies, the one first moving body, and the one second moving body are the same, the one first moving body and the one second moving body are the same. an integration processing step of performing processing for integrating the two moving bodies in a cycle shorter than the second cycle; and a vehicle having a predetermined attribute and satisfying a predetermined condition for a certain vehicle based on the processing result of the integration processing step. and a notification step of notifying the certain vehicle of information regarding the moving body that satisfies the predetermined condition.
プロセッサが、画像信号に対して第2の動体検知ステップを実行して得られる詳細な属性情報により、高い信頼性で特定の属性を持つと判定された動体について、測距信号に対して第1の動体検知ステップを実行することにより得られる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 A moving object determined to have a specific attribute with high reliability based on detailed attribute information obtained by the processor performing the second moving object detection step on the image signal is subjected to the first detection on the distance measurement signal. Using the detection result obtained by executing the moving object detection step of 1, the position can be determined and tracked with high accuracy. As a result, moving objects can be managed with higher accuracy.
<本発明の実施形態の詳細>
以下、図面を参照しつつ、本発明の実施形態の詳細を説明する。なお、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。<Details of the embodiment of the present invention>
Hereinafter, details of embodiments of the present invention will be described with reference to the drawings. At least part of the embodiments described below may be combined arbitrarily. In the following description, identical parts and components are given identical reference numerals. Their names and functions are also the same. Therefore, these descriptions will not be repeated.
なお、以下の説明では、記載を簡略にするため、コンピュータプログラムを単に「プログラム」と呼ぶ。 In the description below, the computer program is simply referred to as a "program" for the sake of simplicity.
<第1の実施形態>
〈構成〉
図1を参照して、本発明の第1の実施形態に係る動体管理システム50は、後述する各種センサの出力を統合し、所定領域内の車両に適宜警告等を報知する処理を行うためのセンサ共有サーバ66と、所定の撮像範囲を撮像して画像信号をセンサ共有サーバ66に送信する複数のカメラ60と、周囲の所定範囲64内に存在する動体までの距離を測定し、測距信号をセンサ共有サーバ66に送信する複数のLiDAR(Laser Imaging Detection and Ranging)62とを含む。複数のカメラ60及びLiDAR62の一部は、街灯、ビル、信号柱等の社会基盤施設(インフラストラクチャー。以下「インフラ」と呼ぶ。)に取り付けられたインフラセンサであり、他の一部は車両に搭載された車両センサである。本実施形態では、センサ共有サーバ66は各インフラセンサの設置された位置を管理している。そのため、センサ共有サーバ66はLiDAR62からの測距信号及びカメラ60からの画像信号を処理することで各動体の位置を緯度と経度との組合せで計算できる。<First embodiment>
<composition>
Referring to FIG. 1, a moving
カメラ60はセンサ共有サーバ66に対して画像信号を送信する。画像信号に含まれる情報は多く、人、車両等を広く検知できるだけではなく、人であればその位置及び姿勢、歩行中か否か、スマートフォンを持って歩いているか否か、何色の服を来ているか等の、各動体の属性を示す情報を得ることができる。しかし、これら属性情報を得るためにはセンサ共有サーバ66において画像信号に対する画像処理を行う必要があり、そのためには比較的長い時間が必要である。一方LiDAR62は、周囲を例えば指向性の高いレーザ光で周囲をスキャンし、動体により反射されたレーザ光を検知して動体までの距離を測定するものである。LiDAR62では対象物の属性としては限定されたものしかわからないが、センサ共有サーバ66において処理するための時間は短い。
動体管理システム50の目的は、複数のカメラ60のように対象物の細かい属性まで判別できるが処理には比較的長い時間を要するセンサ出力と、LiDAR62のように対象物の属性については限定的な情報しかわからないが、処理には短い時間しか必要としないセンサ出力との双方を用いて、例えばスマートフォンを見ながら歩く人68のように車両にとって危険な人物を発見したときには、その人物の移動を精度高く追跡し、必要に応じて車両に警告を送信することである。
The purpose of the moving
図2を参照して、センサ共有サーバ66は、上記したように複数のインフラセンサ設備80(カメラ及びLiDARのいずれか又は双方を含む。)からの信号及び車両搭載センサ82(カメラ及びLiDARのいずれか又は双方を含む。)からの信号を受信するための受信処理部110を含む。インフラセンサ設備80の各々は、カメラ又はLiDARからなるインフラセンサ90と、インフラセンサ90の出力する信号をセンサ共有サーバ66の受信処理部110に対して送信するための通信装置92とを含む。車両搭載センサ82も同様、カメラ又はLiDARからなる車両センサ100と、車両センサ100の出力する信号をセンサ共有サーバ66の受信処理部110に向けて送信する通信装置102とを含む。
Referring to FIG. 2,
センサ共有サーバ66はさらに、受信処理部110が受信した信号のうち、LiDAR62等からの測距信号を解析することにより各動体の位置を第1周期で決定し追跡する動体追跡部112と、動体追跡部112による解析結果113を記憶するための第1の解析結果記憶部114と、受信処理部110が受信した信号のうち、カメラからの画像信号に対して画像解析を行うことにより、画像中の車両、人等の動体の属性及び位置を第2周期で決定する属性検出部116とを含む。センサ共有サーバ66はさらに、属性検出部116の解析結果117を記憶するための第2の解析結果記憶部118と、解析結果記憶部114に記憶された解析結果113と解析結果記憶部118に記憶された解析結果117とを第2周期より短い周期で繰返し統合し、統合後の解析結果125を出力する統合処理部124と、統合処理部124が出力した統合後の解析結果125を蓄積して記憶する第3の解析結果記憶部126とを含む。統合処理部124が第2周期より短い周期で統合処理を行うため、場合によっては属性検出部116による解析が間に合わないことがある。本実施形態では、そうしたときには後述する統合処理によってデータの欠損がないようにして動体の統合を行う。
The
解析結果113、117及び125はそれぞれ所定時間ごとに算出されるが、過去の一定時間に算出された解析結果もそれぞれ履歴として解析結果記憶部114、118及び126に蓄積され記憶されている。統合処理部124が統合処理を行うときに、解析結果記憶部126に蓄積されている過去の統合解析結果125の履歴を参照することがある。
The analysis results 113, 117 and 125 are calculated at predetermined intervals, respectively, and the analysis results calculated at predetermined intervals in the past are also accumulated and stored as histories in the analysis
センサ共有サーバ66はさらに、受信処理部110が各車両から受信した信号に基づいて、管理対象の車両の位置、速度及び移動方向等からなる車両情報を得るための車両追跡部120と、車両追跡部120により解析された各車両の位置、速度及び移動方向等の車両情報121を記憶するための車両情報記憶部122とを含む。センサ共有サーバ66はさらに、統合後の解析結果125の動体情報と、車両情報121とを照合し、統合後の動体情報において危険な歩行者という属性を持つ歩行者の各々について、当該歩行者から所定範囲内に位置する車両に対して警告を報知する処理を行うための警告報知部128と、警告報知部128による警告報知のための信号を対象車両に送信するための送信処理部130とを含む。
The
図3を参照して、図2に示す動体追跡部112の解析結果113は、管理対象となっている動体ごとに、その識別番号である動体IDと、その動体が検知された時刻と、その動体のその時刻における位置と、その動体についてLiDAR62で検出された属性とを含む。LiDAR62からの出力により得られる情報にはこれ以外の情報もあるが、ここではそれらの図示を省略している。動体追跡部112は、この解析結果113を第1周期で更新する。
Referring to FIG. 3, analysis result 113 of moving
位置は、経度及び緯度により特定される。インフラセンサの場合には、センサが設置された位置が予め分かっているため、センサの設置された位置の経度及び緯度と、センサに対する動体の相対位置とにより動体の経度及び緯度が特定できる。車両センサの場合には、車両に搭載されているGPS(Global Positionig System)及びその補正手段による緯度・経度の測定結果を基準に用いることができる。 A location is specified by longitude and latitude. In the case of an infrastructure sensor, since the location where the sensor is installed is known in advance, the longitude and latitude of the location where the sensor is installed and the relative position of the moving object to the sensor can be used to specify the longitude and latitude of the moving object. In the case of a vehicle sensor, the measurement results of latitude and longitude obtained by a GPS (Global Positioning System) mounted on the vehicle and its correction means can be used as a reference.
LiDAR62は基本的に対象動体との距離を測定するためのものであるため、図3に示す属性はこの信号から判定できる限られた情報のみであり、例えば、人、一般車両、大型車両等の区別に限定されている。なお、動体IDは、センサ共有サーバ66が検出した動体を管理するためのものである。したがってセンサ共有サーバ66の管理する領域内で新たな動体が検知されるとその動体に新たなIDが割り当てられる。またセンサ共有サーバ66の管理する領域からある動体が離脱すると、本実施形態ではそのIDの割り当てが解消する。動体IDは以後の図4及び図5においても同様である。ただし、図3及び図4に示す動体IDは互いに無関係である。また図5に示す動体IDは処理の仕方により様々であるが、本実施形態では、後述するように図3又は図4に示すものとは無関係となる。
Since the
図4を参照して、図2に示す属性検出部116の解析結果117は、解析結果113と同様、管理対象となっている動体ごとに、その識別番号である動体IDと、その動体が検知された時刻と、その動体のその時刻における位置と、その動体についてカメラ60からの画像信号を画像処理することで検出された属性とを含む。カメラ60の出力する画像は所定の撮像範囲の画像を含む。したがって、適切な画像処理を行うことにより、各動体について解析結果113よりも詳細な属性、例えば人であれば、大人と子供の区別、着用している衣服の色彩、歩行しているか否か、等の属性を得ることができる。本実施形態で特に用いるのは、いわゆる「歩きスマホ」をしている人、予測できないような動きをする子供、小さい子供と大人との2人連れ、子供又は老人が運転している自転車等、車両の運転者にとって特に注意すべき動体であることを示す属性である。なお、カメラ60に対する画像解析の結果得られる情報はこれ以外にも存在するが、図4では図示を省略してある。また、解析結果117は、画像処理に時間がかかるため第1周期より長い第2周期で更新される。
Referring to FIG. 4, analysis result 117 of
図5を参照して、図2に示す統合処理部124の解析結果125の構成自体は、図3に示す解析結果113及び図4に示す解析結果117と同様で、動体IDと、その動体が検知された時刻と、その時刻のその動体の位置と、その動体の属性とを含む。解析結果125が解析結果113とも解析結果117とも異なるのは、解析結果113と解析結果117とを統合したことにより、各動体の位置はLiDAR62等により検知されたときの位置であるのに対し、各動体の属性はその動体についてカメラ60等により検出された詳細な属性となっている点である。解析結果113と解析結果117との統合を行う手法については後述する。解析結果125は、統合処理ごとに作成され、蓄積される。
5, the configuration itself of
図6を参照して、図2に示す車両追跡部120が管理する車両情報121は、車両IDと、その車両が検知された時刻と、その車両が検知されたときのその車両の位置と、そのときのその車両の進行方向と、そのときの速度とを含む。車両の位置としては、車両に搭載されているGPS及びその補正手段による測定結果を用いる。これらの情報から、その車両がある一定時間の間に移動する距離と、そのときの位置とが推定できる。この車両IDも、図3、図4、及び図5に示す動体IDとは無関係であり、センサ共有サーバ66が管理する領域に車両が進入したことが検知されたときにその車両に割り当てられ、車両がその領域から離脱したときに割り当てが解消される。
6,
図7を参照して、図2に示す統合処理部124をコンピュータにより実現するためのプログラムは、NTP(Network Time Protocol)サーバ等から現時刻を取得するステップ150と、ステップ150において取得された時刻を基準として、解析を開始する時刻(解析開始時刻)を現時刻から所定時間前に設定するステップ152と、図3に示す解析結果113及び図4に示す解析結果117から、解析開始時刻から現時刻までの範囲に入る時刻情報を持つレコードを抽出するステップ154とを含む。ここで抽出された各レコードには、そのレコードが解析結果113から抽出されたものか、解析結果117から抽出されたものかを示す情報を付しておく。
Referring to FIG. 7, a program for realizing
このプログラムはさらに、ステップ154において、抽出されたレコードの位置情報の差及び時間的な差(検知された時刻の相違)により計算される動体間の距離が所定のしきい値内である動体同士をグルーピングするステップ156と、ステップ156でグルーピングされた各グループについて、後述する処理160を実行するステップ158とを含む。なお、このしきい値は比較的小さな値であることが望ましい。また、ステップ156のグルーピングでは、他の全ての動体との距離がしきい値より大きい動体が生じ得る。そうした場合にはその動体のみを構成要素とするグループを形成する。なお、ここでいう距離とは、ユークリッド距離であるものとするが、これ以外にも数学的な距離の定義に適合するものであればどのようなものでも使用できる。例えば位置の場合には単にその絶対値の和を計算して距離としてもよい。また、ここでは時間と位置との双方をまとめて距離を計算した。このように距離を計算することで統合処理がより正確となる。しかしこれに限らず、それぞれについて距離を計算した後にその和を最終的な距離として用いても良い。
Further, in
位置に加えて時間まで含めて同一と判定された動体を統合するので、統合結果の信頼性が高くなる。検出された位置及び時間が近接している動体は同一のものである可能性が非常に高いためである。 Since the moving bodies determined to be identical in terms of time as well as position are integrated, the reliability of the integration result is increased. This is because there is a very high possibility that moving objects whose detected positions and times are close to each other are the same.
さらに、位置情報のみを用いて距離を計算してもよい。この場合には動体の位置に基づいて同一と判定された動体を統合する。位置計算は少ない計算量で行えるので、動体の数が多くなっても簡単な処理で高速に統合を実行できる。 Furthermore, the distance may be calculated using only the location information. In this case, moving objects determined to be identical based on the positions of the moving objects are integrated. Position calculation can be performed with a small amount of calculation, so even if the number of moving objects increases, simple processing can be performed at high speed.
処理160は、処理対象のグループに対し、解析結果113と解析結果117とを統合する処理を実行するステップ170と、ステップ170の解析結果(統合解析結果)125を図2に示す解析結果記憶部126に出力するステップ172とを含む。
The
図8を参照して、図7に示すステップ170を実現するプログラムは、LiDAR62等で検知した動体の個数がカメラ60等で検知した動体の個数と等しいか否かを判定するステップ200と、ステップ200の判定が肯定ならLiDAR62により検知された動体とカメラ60により検知された動体のうち、最も近接する動体同士を統合し解析結果125として出力し処理を終了するステップ202とを含む。ここでの統合では、位置としてLiDAR62の検出結果を用い、属性としてはカメラ60の検出結果を用いる。位置情報についてはLiDAR62の方が短い間隔で精度高く検出できるのに対し、属性に関してはカメラ60からの検出結果の方が詳細だからである。このような組合せにより、統合結果はより的確に動体の位置及び属性を表現することになる。なお、このプログラムは、第2周期より短く第1周期以上の周期で実行される。第1周期で実行すれば動体の位置を精度高く追跡できて好ましい。この場合、属性検出部116による動体検知の更新が間に合わないことがあり得る。しかしその場合には、直前に属性検出部116により検知された動体の情報がそのまま用いられるため、統合処理に支障はない。
Referring to FIG. 8, the program for realizing
動体追跡部112の出力と属性検出部116の出力との、他より優れた点を組合せるので、動体を統合した後の動体の追跡及び報知が的確に行える。
Since the output of the moving
このプログラムはさらに、ステップ200の判定が否定のときに実行され、LiDAR62が検知した動体の個数がカメラ60の検知した動体の個数より多いか否かを判定するステップ204と、ステップ204の判定が肯定であるときに、カメラ60により検知された動体の各々に対し、LiDAR62により検知された動体のうちで最も近接する動体を統合して解析結果125として出力するステップ206と、ステップ206の後に実行され、LiDAR62が検知した動体の内で残った動体の各々について、1サイクル前の統合後の解析結果の中で、この動体の位置と最も近接しておりかつその値が所定しきい値より小さかった動体があるか否かを判定するステップ207と、ステップ207の判定が肯定であるときに、その動体を抽出し、その属性情報をLiDAR62により得られた情報の属性情報に代入することで両者の情報を統合して統合後の解析結果125として出力し処理を終了するステップ208と、ステップ207の判定が否定であるときに、LiDAR62から得られた動体の情報をそのまま使用して統合後の解析結果125として出力し処理を終了するステップ209とを含む。
This program is further executed when the determination of
このプログラムはさらに、ステップ204の判定が否定のときに、LiDAR62により検知された動体の各々に、カメラ60により検知された動体の内で最も近接したものを統合して解析結果125として出力するステップ210と、ステップ210の後、カメラ60の検知した動体のうち残ったものを解析結果125として出力し処理を終了するステップ212とを含む。この際、この動体に関して画像から得られた情報は全て統合後の動体の情報に引き継がれる。ステップ208の処理により、例えばある動体に画像処理により得られた属性情報が付された場合、その後にその動体がカメラには捉えられなかったとしてもその属性情報が引き継がれる。したがって、カメラによる画像が得られずLiDAR62による情報しか得られないところでも、特定の属性を持つ動体を追跡することが可能になる。
Further, when the determination in
以上のように本実施形態では、LiDAR62により検知された動体の数とカメラ60により検知された動体の数とを比較し、その結果に応じて異なる処理をしている。こうすることで動体の検知結果に応じて最適な方法で動体の統合が行え、処理が簡単になり、かつオクルージョン等で動体の数が一時的に一致しなくなっても処理を正常に継続できる。
As described above, in this embodiment, the number of moving objects detected by the
また、上記方法では他の動体と組合されなかった動体でも統合後の解析結果に含まれる。その結果、動体の見落としがなくなり、車両にとってより安全な動体管理を行うことができる。 In addition, in the above method, even moving objects that are not combined with other moving objects are included in the analysis results after integration. As a result, moving objects are not overlooked, and safer moving object management can be performed for vehicles.
図9を参照して、図2に示す警告報知部128を実現するプログラムは、統合した結果の中で属性として危険な歩行者等、車両にとって注意すべき属性を持つ動体を検索するステップ240と、ステップ240に続き、検索された各動体について、処理244を実行するステップ242とを含む。
Referring to FIG. 9, the program for realizing
処理244は、図6に示す車両情報121の中で、その危険歩行者等の動体から所定距離内に位置し、かつその動体に接近中の車両を検索するステップ250と、ステップ250で検索された各車両に対して危険歩行者の接近を報知する警告を送信するステップ252とを含む。
Processing 244 includes
<動作>
この第1の実施形態に係る動体管理システム50は以下のように動作する。図1を参照して、動体管理システム50の複数のカメラ60は、それぞれ所定の撮像範囲を撮像して画像信号をセンサ共有サーバ66に送信する。複数のLiDAR62は、それぞれ周囲の所定範囲内に存在する動体までの距離を測定し、測距信号をセンサ共有サーバ66に送信する。<Action>
The moving
図2を参照して、センサ共有サーバ66の受信処理部110は、上記したように複数のインフラセンサ設備80からの信号及び車両搭載センサ82からの信号を受信し、LiDAR62からの信号を動体追跡部112に与え、カメラ60からの画像信号を属性検出部116に与える。一方、受信処理部110は、車両センサ100から受信した情報のうち、車両の位置、速度及び進行方向を示す情報を車両追跡部120に与える。車両追跡部120は受けた情報に基づいて図6に示す車両情報121を生成し、管理する。
Referring to FIG. 2, the
センサ共有サーバ66の動体追跡部112は、受信処理部110から受けたLiDAR62等からの測距信号を解析することにより、各動体の位置を第1周期で決定する。この解析に要する時間は短く、第1周期で解析結果113が更新される。属性検出部116は、受信処理部110から受けた画像信号に対して画像解析を行うことにより、画像中の車両、人等の動体の属性及び位置を決定する。画像処理には時間がかかるため、属性検出部116による属性検出の周期は動体追跡部112による解析結果113の更新周期より長い第2周期となる。属性検出部116の解析結果117は解析結果記憶部118に格納される。
The moving
図7に示すプログラムは一定間隔で繰り返して起動される。ステップ150で現時刻を取得し、ステップ152で現時刻より所定時間前の解析開始時間を計算する。続いてステップ154で、図3に示す解析結果113及び図4に示す解析結果117から、解析開始時刻から現時刻までの範囲に入る時刻情報を持つレコードを抽出する。ここで抽出された各レコードには、そのレコードが解析結果113から抽出されたものか、解析結果117から抽出されたものかを示す情報を付しておく。
The program shown in FIG. 7 is repeatedly started at regular intervals. At
このプログラムはさらに、ステップ156において、ステップ154で抽出されたレコードにより示される動体の間の距離がしきい値以内となるものをグルーピングする。続くステップ158で、グルーピングされた各グループについて、解析結果113と解析結果117とを統合する処理を実行する(ステップ170)。具体的には以下の処理が実行される。
The program further groups at
図8を参照して、ステップ200において、LiDAR62等で検知した動体の個数がカメラ60等で検知した動体の個数と等しいか否かを判定する。ステップ200の判定が肯定であるときには、ステップ202においてLiDAR62により検知された動体とカメラ60により検知された動体のうち、最も近接する動体同士を統合した新たな動体の情報を統合後の解析結果125として出力する。この統合処理では、位置情報としてはLiDAR62からの解析結果113側の情報を用い、属性情報としてはカメラ60からの解析結果117側の情報を用いる。図示していないこれら以外の要素については、それぞれ予め定められた既定の情報を採用する。
Referring to FIG. 8, at
ステップ200の判定が否定のときには、LiDAR62が検知した動体の個数がカメラ60の検知した動体の個数より多いか否かを判定するステップ204が実行される。ステップ204の判定が肯定であれば、ステップ206で、カメラ60により検知された動体の各々に対し、LiDAR62により検知された動体のうちで最も近接する動体を統合して出来た新たな動体の情報を統合後の解析結果125として出力する。ステップ206に続き、LiDAR62が検知した動体の内で残った動体について、前のサイクルの統合処理により検知された動体のうちで、その位置とこの動体の位置との差が最も小さく、かつその値がしきい値以下のものがあるか否かをステップ207で判定する。ステップ207の判定が肯定であれば、ステップ208でその動体の属性情報をLiDAR62により得られた情報に統合してできる新たな動体の情報を統合後の解析結果125として出力し処理を終了する。ステップ207の判定が否定であれば、LiDAR62により検知された動体のみの情報を用いて統合後の動体の情報を作成し、解析結果125として出力し処理を終了する。
When the determination in
一方、ステップ204の判定が否定のときには、ステップ210で、LiDAR62により検知された動体の各々に、カメラ60により検知された動体の内で最も近接したものを統合して解析結果125として出力する。ステップ210の後、カメラ60の検知した動体のうちで残ったものを解析結果125として出力する。この際、この動体に関して画像から得られた情報は全て統合後の動体の情報に引き継がれる。ステップ208及びステップ212の双方において、組合せられる相手側から得られる筈だった情報については、相手が存在しないので、既定値(例えば空欄)に設定される。このように組合せる相手が存在していないときでも、一方のみからの情報で統合結果を作成することにより、一時的なオクルージョンが原因で、検出された動体数が不一致になっても動作を継続できる。
On the other hand, when the determination in
以上のようにして、図7のステップ170に示す解析結果の統合処理が行われると、続くステップ172でステップ170の処理結果(統合解析結果)を図2に示す解析結果125として出力する。
After the analysis result integration process shown in
以上のステップ170および172からなる処理160が各グループに対して実行される。この結果、統合後の解析結果125(図2及び図5を参照)が生成される。
The
以上の処理が所定時間ごとに繰り返されることにより、図5に示す解析結果125は、LiDAR62等の出力に対する解析結果とカメラ60からの画像信号に対する画像処理の結果得られる解析結果とが互いに統合された形で記録され管理される。この場合、位置情報にはLiDAR62からの出力に基づいて検出された情報が用いられる。したがって各動体の位置は第1の周期という比較的短い周期で更新され、各移動体の位置に関する情報の精度が高くなる。一方、カメラ60の出力する画像信号から得られる各動体の属性に関する情報は、解析結果125の属性に反映される。この属性の更新は第1の周期より低い第2の周期で行われるが、LiDAR62により検知される属性と比較してより詳細である。したがって、この統合後の解析結果125により、正確な属性にしたがって特定した動体の位置を、精度高く追跡することが可能になる。
By repeating the above process at predetermined time intervals, the
この解析結果125を利用して車両に対する警告を報知するのが図2に示す警告報知部128である。図9を参照して、このプログラムは、ステップ240により、統合した結果の中で属性として危険な歩行者等、車両にとって注意すべき属性を持つ動体を検索する。続くステップ242で、その危険歩行者等の各々について、処理244を実行する。処理244のステップ250では、処理対象の危険歩行者等から所定距離内に位置し、かつその動体に接近中の車両を検索する。続くステップ252で、検索された各車両に対して危険歩行者の接近を報知する警告を図2に示す送信処理部130を介して送信する。
A
-本実施形態の効果-
図10を参照して、例えばセンサ共有サーバ66の管理する領域280を考える。領域280には複数のカメラ290、292、294、296、298、300及び302と、LiDAR304を初めとする複数のLiDARが存在する。ここでは説明を分かりやすくするため、LiDARとしてはLiDAR304のみが存在するものとする。-Effects of this embodiment-
With reference to FIG. 10, consider an
カメラ294とLiDAR304の検知範囲が重複する領域306内の位置308で例えばLiDAR304、カメラ294により歩行者が検知されたものとする。これらから得られる情報は統合され、図5に示す解析結果125のような形で管理される。カメラ294の出力を画像処理することにより、この歩行者が危険な歩行者であることが判定されたものとする。すると、この歩行者に対応する動体に関する統合情報には、危険歩行者であることを示す属性が付される。
Assume that a pedestrian is detected by, for example, the
一方、この歩行者が位置310を介して位置312に移動する間、カメラの画像情報が得られなかったものとする。この場合でも、統合情報に付された属性は引き継がれるため、LiDAR304からの情報しか得られなくてもこの特定の動体を追跡しながら、その動体が特定の属性を持つと判定できる。
On the other hand, it is assumed that the camera image information was not obtained while the pedestrian moved from
そこで例えば歩行者が位置314まで移動したとき、カメラ302による画像処理が間に合わなくても、この歩行者が危険な属性を持つことがセンサ共有サーバ66では判定できる。したがって、歩行者の位置314から所定の範囲322(例えば位置314を中心とする半径Rの範囲)内にいる車両又はこの範囲322に向けて移動中の車両324等に対して、注意すべき歩行者がいることを示す警告326を的確に送信できる。
Therefore, for example, when the pedestrian moves to the
以上のように本実施形態によれば、短い周期で処理可能だが詳細な属性が得られないLiDAR62からの測距信号により検知した動体と、より長い周期でしか処理できないが、より詳細な属性を検出できるカメラ60等からの画像信号を画像処理することにより検知した動体とを統合する。この際、位置情報についてはLiDAR62から得られたものを用い、属性についてはカメラ60から得られたものを用いる。したがって、高い信頼性で動体の属性を検出すると同時に、その位置についての高い精度で検出できる。そのため、周囲の車両等に対して、注意すべき動体に関する的確な報知を行うことができる。その結果、本実施の形態に係るシステムは、一般的には車両の運転支援に利用でき、特にある領域内で注意を要する動体に関する注意喚起を行うことにより、車両の安全な運行管理に利用できる。
As described above, according to the present embodiment, a moving object detected by the distance measurement signal from the
<第2の実施形態>
第1の実施形態では、LiDAR62から得られた動体と、カメラ60から得られた動体の位置との差が所定のしきい値以下の場合、その中で最も近接した動体同士を統合している。しかしこの場合、統合の仕方によっては統合の誤りが発生する可能性がある。<Second embodiment>
In the first embodiment, when the difference between the position of the moving object obtained from the
図11を参照して、例えば、LiDAR62から得られた動体340及び342と、カメラ60から得られた動体344及び346とにおいて、動体340と動体344、動体340と動体346、動体342と動体344及び動体346のいずれにおいてもしきい値以下の場合には図11と図12の2つの組合せ方が生じる。図11の場合には、動体340と動体344が組み合わされ、動体342と動体346とが組み合わされている。一方図12の場合には、動体340と動体346とが組み合わされ、動体342と動体344とが組み合わされている。こうした場合の組合せ方としては、図11の方が妥当と考えられるが、動体342と動体344とを先に組合せた場合、図12のようになってしまうという可能性がある。本実施形態は、こうした可能性をできるだけ排除するためのものである。具体的には、本実施形態では、図11に示すような状態が発生した場合、可能な組合せの全てについて、組合せる対象となる動体の間の距離の自乗の和を計算し、その値が最も小さくなるような組合せを採用する。
With reference to FIG. 11 , for example, in moving
この第2の実施形態に係るセンサ共有サーバにおいては、図8に示すプログラムに替えて図13に示す制御構造を持つプログラムを採用する。図13を参照して、このプログラムは、LiDARにより検知された動体とカメラにより検知された動体との間の距離がしきい値以下となっているグループの各々に対して実行されるものである。このプログラムは、LiDARにより検知された動体とカメラにより検知された動体との可能な組合せを全て計算するステップ350と、ステップ350で計算された全ての組合せについて、LiDARにより検知された動体とカメラにより検知された動体とで組み合わされたものの間の距離の自乗の和を計算し、その値が最小となる組合せを採用するステップ352と、ステップ352で採用された組合せにしたがった動体の組合せを統合後の解析結果に出力するステップ354とを含む。この処理により、LiDARにより検知された動体とカメラにより検知された動体との間で組合せ可能なものは全て組合される。
The sensor sharing server according to the second embodiment employs a program having a control structure shown in FIG. 13 instead of the program shown in FIG. Referring to FIG. 13, this program is executed for each group in which the distance between the moving object detected by LiDAR and the moving object detected by the camera is equal to or less than a threshold. . This program calculates
このプログラムはさらに、ステップ354の後、処理対象のグループのうちでLiDARにより検知された動体の個数とカメラにより検知された動体の個数が等しいか否かを判定し、判定が肯定ならこのプログラムの実行を終了するステップ356と、ステップ356の判定結果が否定の時に、LiDARにより検知された動体の個数がカメラにより検知された動体の個数より多いか否かを判定するステップ358とを含む。このプログラムはさらに、ステップ358の判定が肯定のときに実行され、LiDARの検知した動体の内で他の動体と組合されなかった動体の各々について、1ステップ前の統合結果の履歴内においてこの動体の位置と近接する位置にあり、かつその値が所定のしきい値以内の動体があるか否かを判定するステップ359と、ステップ359の判定が肯定であれば、その動体の属性情報をLiDARにより得られた情報の属性情報に代入して新たな動体の情報を統合後の解析結果に出力するステップ360とを含む。このプログラムはさらに、ステップ359の判定が否定であれば、LiDARの情報のみを用いて統合後の動体の情報を作成し統合後の解析結果に出力するステップ361と、ステップ358の判定が否定のときに、残ったカメラ検知動体の情報を用いて新たな統合後の情報を生成し統合後の解析結果に出力するステップ362とを含む。
After
この第2の実施の形骸によれば、図11又は図12のようなケースが発生したときにも、LiDARの検知した動体とカメラの検知した動体との、もっとも好ましい(正しい可能性が高い)組合せを得ることができる。その結果、危険な属性が付与された動体について精度高く追跡できる。 According to the second embodiment, even when a case such as that shown in FIG. 11 or 12 occurs, the moving object detected by the LiDAR and the moving object detected by the camera are most preferable (highly likely to be correct). You can get a combination. As a result, the moving object to which the dangerous attribute is assigned can be tracked with high accuracy.
<第3の実施形態>
第1及び第2の実施形態では、LiDARによる検知動体とカメラによる検知動体とを統合する際に、インフラセンサからの情報だけでなく車両センサからの情報を用いている。こうすることにより、インフラセンサが存在しない領域でも移動中の動体を検知できる可能性が高い。しかし本発明はそのような実施形態には限定されない。インフラセンサからの情報のみを用いることも考えられる。第3の実施形態はそのような実施形態である。<Third Embodiment>
In the first and second embodiments, the information from the vehicle sensor as well as the information from the infrastructure sensor is used when integrating the moving object detected by the LiDAR and the moving object detected by the camera. By doing so, there is a high possibility that moving objects can be detected even in areas where infrastructure sensors do not exist. However, the invention is not limited to such embodiments. It is also conceivable to use only information from infrastructure sensors. The third embodiment is such an embodiment.
図14を参照して、この第3の実施形態に係るセンサ共有サーバ380は、図2に示す受信処理部110に替えて、インフラセンサ設備80からの信号を受信し、インフラセンサ設備80の内のLiDARからの信号を動体追跡部112に、カメラからの画像信号を属性検出部116に、それぞれ与えるための第1の受信処理部390と、車両搭載センサ82からの信号を受信し、車両追跡部120に与えるための第2の受信処理部392とを含む。
Referring to FIG. 14, sensor shared
このセンサ共有サーバ380では、注意すべき動体の検知及びその追跡は、インフラセンサ設備80からの信号のみによって行われる。その他の点ではセンサ共有サーバ380はセンサ共有サーバ66と同じ構成を持ち、同じプログラムで動作する。したがってそれらについての詳細な説明は繰り返さない。
In this
この第3の実施形態によれば、予めインフラセンサの位置が分かっているため、例えば画像信号から固定的な背景を削除して画像処理の速度を上げたり、2つのカメラからの画像を用いて動体の位置及び属性の検知精度を高めたりすることができるという効果がある。また、重要な地点のみ、複数のセンサを配置しておくことで、ある領域については効率的に動体の検知を行うことができるという効果がある。ただしこの実施形態では、インフラセンサが設置されていない領域では動体の検知及び追跡が不可能になるという欠点もある。 According to this third embodiment, since the position of the infrastructure sensor is known in advance, for example, the fixed background is removed from the image signal to speed up the image processing, or the images from the two cameras are used to increase the image processing speed. There is an effect that it is possible to improve the detection accuracy of the position and attributes of a moving object. Also, by arranging a plurality of sensors only at important points, there is an effect that moving objects can be efficiently detected in a certain area. However, this embodiment also has the drawback that it is impossible to detect and track moving objects in areas where infrastructure sensors are not installed.
[コンピュータによる実現]
この発明の上記実施形態に係る動体管理システム50及びその構成要素は、プロセッサを含むコンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。図15はこのコンピュータシステム430の外観を示し、図16はコンピュータシステム430の内部構成を示す。[Realization by computer]
The moving
図15を参照して、このコンピュータシステム430は、DVD(Digital Versatile Disc)ドライブ450を有するコンピュータ440と、キーボード446と、マウス448と、モニタ442とを含む。
Referring to FIG. 15, this
図16を参照して、コンピュータ440は、DVDドライブ450に加えて、CPU(Central Processing Unit:中央処理装置)456と、GPU(Graphic Processing Unit)457と、CPU456、GPU457、DVDドライブ450に接続されたバス466と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)458と、バス466に接続され、プログラム命令、システムプログラム、および作業データ等を記憶するランダムアクセスメモリ(RAM)460と、不揮発性メモリであるハードディスクドライブ(HDD)454を含む。コンピュータシステム430はさらに、他端末との通信を可能とするネットワーク468への接続を提供するネットワークインターフェイス(I/F)444を含む。
Referring to FIG. 16 ,
上記各実施形態では、図2に示す解析結果113、117及び125、並びに車両情報121等は、いずれもHDD454又はRAM460に記憶される。すなわち、HDD454、RAM460により解析結果記憶部114、118及び126、並びに車両情報記憶部122等が実現される。
In each embodiment described above, the analysis results 113, 117 and 125 shown in FIG. That is, the
コンピュータシステム430に動体管理システム50及びその構成要素の機能を実現させるためのコンピュータプログラムは、DVDドライブ450に装着されるDVD462に記憶され、DVDドライブ450からHDD454に転送される。又は、プログラムはネットワーク468を通じてコンピュータ440に送信されHDD454に記憶されてもよい。プログラムは実行の際にRAM460にロードされる。DVD462から、又はネットワークを介して、直接にRAM460にプログラムをロードしてもよい。
A computer program for causing the
このプログラムは、コンピュータ440にこの実施形態の動体管理システム50のセンサ共有サーバ66及びセンサ共有サーバ380として動作を行なわせる複数の命令を含む。この動作を行なわせるのに必要な基本的機能のいくつかはコンピュータ440上で動作するオペレーティングシステム(OS)若しくはサードパーティのプログラム、又はコンピュータ440にインストールされる各種ツールキットのモジュールにより提供される。したがって、このプログラムはこの実施形態のシステムおよび方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又は「プログラミング・ツール・キット」を呼出すことにより、上記した動体管理システム50及びその構成要素としての動作を実行する命令のみを含んでいればよい。コンピュータシステム430の動作は周知であるので、ここでは繰返さない。なお、GPU457は並行処理を行うことが可能であり、多くの動体に関する統合処理を同時並行的に実行する際に有効に機能する。
This program includes a plurality of instructions that cause
[変形例]
以上の説明は、以下に付記する特徴を含む。[Modification]
The above description includes the features appended below.
付記1
1以上の第1の動体を検知可能な第1の動体検知部の直前の所定回数の検知結果を履歴として記憶する第1の履歴記憶部と、
1以上の第2の動体を検知可能な第2の動体検知部の直前の所定回数の検知結果を履歴として記憶する第2の履歴記憶部とをさらに含み、
統合処理部は、第1及び第2の動体検知部の最新の検知結果と、前記第1の履歴記憶部及び前記第2の履歴記憶部に記憶された直前のそれぞれ所定回数の検知結果とに基づいて1つの前記第1の動体と1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い第3周期で実行する時間を考慮した時間・空間的統合処理部を含む。
a first history storage unit that stores, as a history, a predetermined number of detection results immediately before the first moving object detection unit capable of detecting one or more first moving objects;
a second history storage unit that stores as a history a predetermined number of detection results immediately before the second moving object detection unit capable of detecting one or more second moving objects;
The integrated processing unit integrates the latest detection results of the first and second moving body detection units with the previous predetermined number of detection results stored in the first history storage unit and the second history storage unit. When the one first moving body and the one second moving body are the same based on the above, the process of integrating the one first moving body and the one second moving body is performed by the second moving body. It includes a temporal/spatial integration processing unit that considers the time to be executed in a third period shorter than the period.
時間・空間的統合処理部により、同一の動体の検知がより正確に行える。第1の動体検知部が検知した動体と、第2の動体検知部が検知した動体とが空間的に近傍に存在しているだけでなく、両者が検出された時刻が近接している場合には、両者が同一の動体である可能性が非常に高いためである。また、空間的に複数の動体が検出されたときには、それらの時間的な軌跡が分かれば、最新の検出時に2つの動体を区別できる可能性が高くなるためである。 The same moving object can be detected more accurately by the temporal/spatial integration processing unit. When the moving object detected by the first moving object detection unit and the moving object detected by the second moving object detection unit are not only spatially adjacent to each other, but also when the times at which the two are detected are close to each other, This is because there is a very high possibility that both are the same moving object. Also, when a plurality of moving bodies are spatially detected, if their temporal trajectories are known, the possibility of distinguishing two moving bodies at the time of the latest detection increases.
上記実施形態では、センサとしてLiDAR及びカメラの2種類のみを用いている。しかし本発明はそのような実施形態には限定されない。測距センサとしては赤外線によるものを用いても良い。又、カメラをステレオカメラにすれば、カメラによる位置検知の精度をより高くできる。 In the above embodiment, only two types of sensors, LiDAR and camera, are used. However, the invention is not limited to such embodiments. An infrared sensor may be used as the distance measuring sensor. Also, if the camera is a stereo camera, the accuracy of position detection by the camera can be increased.
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above description, and is intended to include all changes within the meaning and scope equivalent to the scope of the claims.
50 動体管理システム
60、290、292、294、296、298、300、302 カメラ
62、304 LiDAR
66、380 センサ共有サーバ
80 インフラセンサ設備
82 車両搭載センサ
90 インフラセンサ
92、102 通信装置
100 車両センサ
110、390、392 受信処理部
112 動体追跡部
113、117、125 解析結果
114、118、126 解析結果記憶部
116 属性検出部
120 車両追跡部
121 車両情報
122 車両情報記憶部
124、394 統合処理部
128 警告報知部
130 送信処理部
150、152、154、156、158、170、172、200、202、204、206、207、208、209、210、212、240、242、250、252、350、352、354、356、358、359、360、361、362 ステップ
160、244 処理
306 領域
308、310、312、314 位置
322 所定の範囲
324 車両
326 警告
340、342、344、346 動体
430 コンピュータシステム
440 コンピュータ
442 モニタ
444 ネットワークI/F
446 キーボード
448 マウス
450 DVDドライブ
454 ハードディスク
456 CPU
457 GPU
458 ROM
460 RAM
462 DVD
466 バス
468 ネットワーク
50 moving
66, 380
446
457 GPUs
458 ROMs
460 RAM
462 DVDs
466
Claims (10)
外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、
1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、
前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含み、
前記統合処理部は、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する、動体管理装置。 a first moving body detection unit that detects one or more first moving bodies in a first cycle based on a first signal received from the outside;
a second moving body detection unit that detects one or more second moving bodies in a second cycle longer than the first cycle based on a second signal received from the outside;
When the one first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed from the second period an integration processing unit that executes in a short period;
Based on the processing result of the integrated processing unit, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a certain vehicle, information regarding the moving object that satisfies the predetermined condition is notified to the certain vehicle. including a notification unit,
The moving body management apparatus, wherein the integration processing unit sets the positions and attributes of the moving bodies determined to be the same using the position of the one first moving body and the attribute of the one second moving body.
前記1つの第1の動体の位置と、前記1つの第2の動体の位置が所定の条件を充足するか否かにより、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定する位置判定部と、
前記位置判定部によって同一と判定された前記1つの第1の動体及び前記1つの第2の動体の位置及び属性を、それぞれ前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いて設定することにより統合する統合部とを含む、請求項1に記載の動体管理装置。 The integration processing unit
Depending on whether the position of the one first moving body and the position of the one second moving body satisfy a predetermined condition, the one first moving body and the one second moving body A position determination unit that determines whether or not the is the same;
The positions and attributes of the one first moving body and the one second moving body determined to be identical by the position determining unit are respectively determined as the positions of the one first moving body and the one second moving body. 2. The moving body management apparatus according to claim 1, further comprising an integration unit that integrates by setting using attributes .
前記第1の動体検知部によって検知される前記第1の動体の数と、前記第2の動体検知部によって検知される前記第2の動体の数とが一致するか否かを判定する動体数判定部と、
前記動体数判定部による結果に基づいて、統合の対象となり得る前記第1の動体と前記第2の動体とのグループを決定するグループ決定部と、
前記グループ決定部により決定されたグループに含まれる1つの前記第1の動体の位置と、前記グループに含まれる1つの前記第2の動体の位置が所定の条件を充足するか否かによって、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定するグループ内判定部を含む、請求項2に記載の動体管理装置。 The position determination unit
Number of moving bodies for determining whether the number of the first moving bodies detected by the first moving body detection unit and the number of the second moving bodies detected by the second moving body detection unit match a determination unit;
a group determination unit that determines a group of the first moving object and the second moving object that can be integrated based on the result of the moving object number determination unit ;
Depending on whether the position of one of the first moving bodies included in the group determined by the group determination unit and the position of one of the second moving bodies included in the group satisfy a predetermined condition, 3. The moving body management apparatus according to claim 2 , further comprising an intra-group determination unit that determines whether said one first moving body and said one second moving body are the same.
所定領域内の車両の位置を検知する車両位置検知部と、
前記統合処理部の処理結果及び前記車両位置検知部の検知結果に基づいて、所定の属性を持つ動体を中心とする所定範囲内に位置する車両があるときに、前記車両に対して前記所定の条件を満たす動体に関する警告を報知する警告部とを含む、請求項1から請求項5のいずれか1項に記載の動体管理装置。 The notification unit is
a vehicle position detection unit that detects the position of the vehicle within a predetermined area;
Based on the processing result of the integrated processing unit and the detection result of the vehicle position detection unit, when there is a vehicle located within a predetermined range centered on a moving object having a predetermined attribute, the vehicle is subjected to the predetermined 6. The moving body management apparatus according to any one of claims 1 to 5 , further comprising a warning unit that issues a warning regarding a moving body that satisfies a condition.
前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、
前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む動体管理システム。 a moving body management device according to any one of claims 1 to 6 ;
a first sensor that transmits, as the first signal, a ranging signal indicating a distance to a surrounding object in the first cycle to the first moving body detection unit;
and a second sensor that transmits an image signal representing an image of an imaging range in the second period as the second signal to the second moving body detection unit.
コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、
コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、
コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含み、
前記統合処理ステップにおいては、コンピュータが、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する、動体管理方法。 A first moving body detection step in which the computer detects one or more first moving bodies in a first cycle based on a first signal received from the outside;
A second moving body detection step in which the computer detects one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside;
The computer performs the process of integrating the one first moving body and the one second moving body when the one first moving body and the one second moving body are the same. an integration processing step executed in a cycle shorter than the second cycle;
Based on the processing result of the integrated processing step, the computer provides information about a moving object that has a predetermined attribute and is located at a position that satisfies predetermined conditions for a certain vehicle and that satisfies the predetermined conditions for the certain vehicle. and a notification step of notifying
In the integration processing step, the computer sets the positions and attributes of the moving bodies determined to be the same using the position and attributes of the one first moving body and the attributes of the one second moving body, respectively. Method.
外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、
外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、
1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、
前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させるためのコンピュータプログラムであって、
前記統合処理ステップにおいては、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する処理をコンピュータに実行させる、コンピュータプログラム。 to the computer,
a first moving body detection step of detecting one or more first moving bodies in a first period based on a first signal received from outside;
a second moving body detection step of detecting one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside;
When the one first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed in the second cycle an integration processing step that is executed in a shorter period;
Based on the processing result of the integrated processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a certain vehicle, information regarding the moving object that satisfies the predetermined condition is notified to the certain vehicle. A computer program for executing a notification step ,
In the integration processing step, the computer executes a process of setting the positions and attributes of the moving bodies determined to be the same using the position of the one first moving body and the attribute of the one second moving body. , a computer program .
前記受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、
前記プロセッサは、
前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、
前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、
1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、
前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされており、
前記プロセッサは、前記統合処理ステップにおいては、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定するようにプログラムされている、動体管理装置。
receiving the distance measurement signal from a distance sensor that measures the distance to a surrounding object in a first period and transmits the distance measurement signal, and generates an image signal representing an image of the imaging range in a second period longer than the first period a receiving unit connected so as to be able to receive the image signal from the transmitting imaging device;
a processor operably coupled to the receiver to read information received by the receiver;
The processor
a first moving body detection step of detecting one or more first moving bodies based on the ranging signal;
a second moving body detection step of detecting one or more second moving bodies based on the image signal;
When one of the first moving bodies and one of the second moving bodies are the same, the process of integrating the one of the first moving bodies and the one of the second moving bodies from the second period. an integration processing step executed in a short period;
Based on the processing result of the integrated processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a certain vehicle, information regarding the moving object that satisfies the predetermined condition is notified to the certain vehicle. is programmed to perform a notification step and
In the integration processing step, the processor sets the positions and attributes of moving bodies determined to be identical using the position and attributes of the one first moving body and the one attribute of the second moving body, respectively. A programmed motion management device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018063865 | 2018-03-29 | ||
JP2018063865 | 2018-03-29 | ||
PCT/JP2019/010894 WO2019188429A1 (en) | 2018-03-29 | 2019-03-15 | Moving body management device, moving body management system, moving body management method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019188429A1 JPWO2019188429A1 (en) | 2021-04-15 |
JP7294323B2 true JP7294323B2 (en) | 2023-06-20 |
Family
ID=68058827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020510659A Active JP7294323B2 (en) | 2018-03-29 | 2019-03-15 | Moving body management device, moving body management system, moving body management method, and computer program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7294323B2 (en) |
WO (1) | WO2019188429A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022034571A (en) * | 2018-11-26 | 2022-03-04 | 住友電気工業株式会社 | Traffic information processing server, traffic information processing method, and computer program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004038640A (en) | 2002-07-04 | 2004-02-05 | Nissan Motor Co Ltd | External recognition device for vehicle |
JP2007187618A (en) | 2006-01-16 | 2007-07-26 | Omron Corp | Object identifying device |
JP2009110172A (en) | 2007-10-29 | 2009-05-21 | Fuji Heavy Ind Ltd | Object detection device |
JP2015219721A (en) | 2014-05-16 | 2015-12-07 | 本田技研工業株式会社 | Operation support system and object recognition device |
JP2016018413A (en) | 2014-07-09 | 2016-02-01 | 富士通テン株式会社 | Vehicle device, vehicle control system, and vehicle control method |
-
2019
- 2019-03-15 JP JP2020510659A patent/JP7294323B2/en active Active
- 2019-03-15 WO PCT/JP2019/010894 patent/WO2019188429A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004038640A (en) | 2002-07-04 | 2004-02-05 | Nissan Motor Co Ltd | External recognition device for vehicle |
JP2007187618A (en) | 2006-01-16 | 2007-07-26 | Omron Corp | Object identifying device |
JP2009110172A (en) | 2007-10-29 | 2009-05-21 | Fuji Heavy Ind Ltd | Object detection device |
JP2015219721A (en) | 2014-05-16 | 2015-12-07 | 本田技研工業株式会社 | Operation support system and object recognition device |
JP2016018413A (en) | 2014-07-09 | 2016-02-01 | 富士通テン株式会社 | Vehicle device, vehicle control system, and vehicle control method |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019188429A1 (en) | 2021-04-15 |
WO2019188429A1 (en) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110268413B (en) | Low level sensor fusion | |
US10520904B2 (en) | Event classification and object tracking | |
US11915099B2 (en) | Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data | |
US10077054B2 (en) | Tracking objects within a dynamic environment for improved localization | |
JP6230673B2 (en) | Traffic signal map creation and detection | |
KR102338370B1 (en) | Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same | |
US20180068206A1 (en) | Object recognition and classification using multiple sensor modalities | |
JP5886439B2 (en) | Method and / or apparatus for geofence management | |
JP2020115322A (en) | System and method for vehicle position estimation | |
US11408739B2 (en) | Location correction utilizing vehicle communication networks | |
EP4105908A1 (en) | Method, apparatus, server, and computer program for collision accident prevention | |
CN113959457B (en) | Positioning method and device for automatic driving vehicle, vehicle and medium | |
US10109191B2 (en) | Method of quickly detecting road distress | |
CN114274972A (en) | Scene recognition in an autonomous driving environment | |
US20180107946A1 (en) | Alert output apparatus | |
JP7167696B2 (en) | Related information creation device, traffic control system, related information creation method, and computer program | |
JP7294323B2 (en) | Moving body management device, moving body management system, moving body management method, and computer program | |
JP2016153832A (en) | Map data storage device, control method, program, and storage medium | |
US20220319322A1 (en) | Drive assist apparatus and drive assist method | |
JP2019158762A (en) | Device, method, and program for detecting abnormalities | |
JP7069944B2 (en) | Environment detectors, environment detection systems, environment detection methods, and computer programs | |
US20190188599A1 (en) | Information processing method, information processing apparatus, and program | |
JP2019106166A (en) | Information processing method, information processing apparatus and program | |
CN113721235B (en) | Object state determining method, device, electronic equipment and storage medium | |
US20230267718A1 (en) | Systems and methods for training event prediction models for camera-based warning systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7294323 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |