JP7294323B2 - Moving body management device, moving body management system, moving body management method, and computer program - Google Patents

Moving body management device, moving body management system, moving body management method, and computer program Download PDF

Info

Publication number
JP7294323B2
JP7294323B2 JP2020510659A JP2020510659A JP7294323B2 JP 7294323 B2 JP7294323 B2 JP 7294323B2 JP 2020510659 A JP2020510659 A JP 2020510659A JP 2020510659 A JP2020510659 A JP 2020510659A JP 7294323 B2 JP7294323 B2 JP 7294323B2
Authority
JP
Japan
Prior art keywords
moving body
moving
unit
moving object
bodies
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020510659A
Other languages
Japanese (ja)
Other versions
JPWO2019188429A1 (en
Inventor
明紘 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Publication of JPWO2019188429A1 publication Critical patent/JPWO2019188429A1/en
Application granted granted Critical
Publication of JP7294323B2 publication Critical patent/JP7294323B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラムに関する。本出願は、2018年3月29日出願の日本出願第2018-063865号に基づく優先権を主張し、前記日本出願に記載された全ての内容を援用するものである。 The present invention relates to a moving body management device, a moving body management system, a moving body management method, and a computer program. This application claims priority based on Japanese application No. 2018-063865 filed on March 29, 2018, and incorporates all the contents described in the Japanese application.

車両を運行する際には、自車の動きだけではなく、他車の動きにも十分に注意する必要がある。車両に加えて、歩行者が存在している場合には特に注意が必要である。従来、このような移動物体(以下、「動体」と呼ぶ。)を検知する技術として、後掲の特許文献1に開示された技術がある。 When operating a vehicle, it is necessary to pay sufficient attention not only to the movement of the own vehicle but also to the movement of other vehicles. Particular attention should be paid when pedestrians are present in addition to vehicles. Conventionally, as a technique for detecting such a moving object (hereinafter referred to as "moving object"), there is a technique disclosed in Patent Document 1 listed below.

特許文献1には、街頭に設置された監視カメラなどの複数のセンサを用い、一方のセンサで検知された測定結果によって、他方のセンサの対象物に影響を与える情報を取得し、複数のセンサから取得した様々な計測結果を統合した形で保持することによって、システム全体の性能向上を図るシステムが開示されている。 In Patent Document 1, using a plurality of sensors such as surveillance cameras installed on the street, the measurement result detected by one sensor acquires information that affects the target of the other sensor, and the plurality of sensors Disclosed is a system for improving the performance of the entire system by holding various measurement results acquired from the system in an integrated form.

特開2016-85602号公報JP 2016-85602 A

本開示の一態様に係る動体管理装置は、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含む。 A moving body management apparatus according to an aspect of the present disclosure includes: a first moving body detection unit that detects one or more first moving bodies in a first period based on a first signal received from the outside; a second moving body detection unit that detects one or more second moving bodies in a second period longer than the first period based on the obtained second signal; one of the first moving bodies; an integration processing unit that performs a process of integrating the one first moving body and the one second moving body when they are the same as the second moving body in a cycle shorter than the second cycle; A notification unit for notifying information about a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a vehicle based on the processing result of the processing unit and that satisfies the predetermined condition for the vehicle. including.

本開示の一の態様に係る動体管理システムは、上述の動体管理装置と、前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む。 A moving body management system according to an aspect of the present disclosure includes the above-described moving body management apparatus, and a distance measurement signal indicating a distance to a surrounding object in the first period to the first moving body detection unit. and a second sensor that transmits, as the second signal, an image signal representing an image of the imaging range in the second period to the second moving object detection unit.

本開示の一の態様に係る動体管理方法は、コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含む。 A moving object management method according to one aspect of the present disclosure includes a first moving object detection step in which a computer detects one or more first moving objects in a first period based on a first signal received from the outside; , a second moving body detection step in which the computer detects one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; When the first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed in a period shorter than the second period. an integration processing step that is executed periodically; and a computer, based on the processing result of the integration processing step, detects a moving object that has a predetermined attribute and is located in a position that satisfies predetermined conditions for a vehicle. and a reporting step of reporting information about the moving body that satisfies the predetermined condition.

本開示の一の態様に係るコンピュータプログラムは、コンピュータに、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させる。 A computer program according to an aspect of the present disclosure provides a computer with a first moving object detection step of detecting one or more first moving objects in a first cycle based on a first signal received from the outside; a second moving body detection step of detecting one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; one of the first moving bodies; an integration processing step of executing the processing of integrating the one first moving object and the one second moving object in a cycle shorter than the second cycle when the one second moving object is the same Then, based on the processing result of the integration processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies predetermined conditions for a certain vehicle, information regarding the moving object that satisfies the predetermined conditions for the certain vehicle is obtained. and a reporting step of reporting.

本開示の他の態様に係る動体管理装置は、第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、前記プロセッサは、前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされている。 A moving object management apparatus according to another aspect of the present disclosure receives the ranging signal from a distance sensor that measures the distance to a surrounding object in a first period and transmits the ranging signal, and the period is longer than the first period. a receiving unit connected so as to be able to receive the image signal from an imaging device that transmits an image signal representing an image of an imaging range in a second cycle; and the receiving unit capable of reading information received by the receiving unit. a processor connected to a first moving object detection step of detecting one or more first moving objects based on the ranging signal; and one or more first moving objects based on the image signal. When the second moving body detection step of detecting two moving bodies, the one first moving body, and the one second moving body are the same, the one first moving body and the one second moving body are the same. an integration processing step of performing processing for integrating the two moving bodies in a cycle shorter than the second cycle; and a vehicle having a predetermined attribute and satisfying a predetermined condition for a certain vehicle based on the processing result of the integration processing step. and a notification step of notifying the certain vehicle of information regarding the moving body that satisfies the predetermined condition.

本開示は、このような特徴的な処理部を備える動体管理装置、かかる特徴的な処理をステップとする動体管理方法、及びかかる特徴的な処理をコンピュータに実行させるためのプログラムとして実現することができる。また、かかるステップの一部又は全部を実行する機能を有する半導体集積回路として実現したり、動体管理装置を含む動体管理システムとして実現したりすることができる。 The present disclosure can be implemented as a moving body management apparatus including such a characteristic processing unit, a moving body management method having steps of such characteristic processing, and a program for causing a computer to execute such characteristic processing. can. Moreover, it can be realized as a semiconductor integrated circuit having a function of executing some or all of these steps, or as a moving body management system including a moving body management device.

図1は本発明の第1の実施形態に係る動体管理システムの概要を示す模式図である。FIG. 1 is a schematic diagram showing an outline of a moving object management system according to the first embodiment of the present invention. 図2は図1に示すシステムにおいて複数種類のセンサからの情報を統合することにより動体情報を管理し、安全な運行に必要な情報を車両に報知する動体管理装置であるセンサ共有サーバのブロック図である。FIG. 2 is a block diagram of a sensor sharing server, which is a moving body management device that manages moving body information by integrating information from multiple types of sensors in the system shown in FIG. 1 and notifies vehicles of information necessary for safe driving. is. 図3は図2に示すセンサ共有サーバの動体追跡部による解析結果を表形式で示す図である。FIG. 3 is a diagram showing, in tabular form, analysis results by the moving body tracking unit of the sensor sharing server shown in FIG. 図4は図2に示すセンサ共有サーバの属性検出部による解析結果を表形式で示す図である。FIG. 4 is a diagram showing, in tabular form, analysis results by the attribute detection unit of the sensor shared server shown in FIG. 図5は図2に示すセンサ共有サーバの統合処理部による解析結果を表形式で示す図である。FIG. 5 is a diagram showing, in tabular form, analysis results by the integration processing unit of the sensor sharing server shown in FIG. 図6は図2に示すセンサ共有サーバの車両追跡部により管理される車両情報を表形式で示す図である。6 is a table showing vehicle information managed by the vehicle tracking unit of the sensor sharing server shown in FIG. 2. FIG. 図7はコンピュータを、図2に示すセンサ共有サーバの統合処理部として機能させるためのプログラムの制御構造を示すフローチャートである。FIG. 7 is a flow chart showing the control structure of a program for causing a computer to function as an integration processing unit of the sensor sharing server shown in FIG. 図8はコンピュータを、図7に示す解析結果の統合処理を実現するよう動作させるためのプログラムの制御構造を示すフローチャートである。FIG. 8 is a flow chart showing the control structure of a program for operating a computer to implement the analysis result integration process shown in FIG. 図9はコンピュータを、図2に示す警告報知部として動作させるためのプログラムの制御構造を示すフローチャートである。FIG. 9 is a flow chart showing the control structure of a program for operating the computer as the warning notification unit shown in FIG. 図10は本発明の第1の実施形態による車両への警告処理を説明するための図である。FIG. 10 is a diagram for explaining warning processing to the vehicle according to the first embodiment of the present invention. 図11は本発明の第2の実施形態における、検知された動体の統合のためのある組合せ方法を説明するための図である。FIG. 11 is a diagram for explaining a combination method for integration of detected moving objects in the second embodiment of the present invention. 図12は本発明の第2の実施形態における、検知された動体の統合のための他の組合せ方法を説明するための図である。FIG. 12 is a diagram for explaining another combination method for integrating detected moving objects in the second embodiment of the present invention. 図13は本発明の第2の実施形態において、コンピュータを、解析結果の統合処理を実現するよう動作させるためのプログラムの制御構造を示すフローチャートである。FIG. 13 is a flow chart showing the control structure of a program for operating a computer to realize processing for integrating analysis results in the second embodiment of the present invention. 図14は本発明の第3の実施形態に係るセンサ共有サーバのブロック図である。FIG. 14 is a block diagram of a sensor sharing server according to the third embodiment of the invention. 図15は第1の実施形態に係るセンサ共有サーバの外観図である。FIG. 15 is an external view of the sensor sharing server according to the first embodiment. 図16は図15に示すセンサ共有サーバの内部構成を示すブロック図である。16 is a block diagram showing the internal configuration of the sensor sharing server shown in FIG. 15. FIG.

<本開示が解決しようとする課題>
特許文献1に開示された発明は、複数のセンサの計測結果を統合することでシステム全体の性能向上を図る点で優れたものといえる。しかし、特許文献1は、個々のセンサの性能の相違及び特性を十分に考慮していないという問題がある。
<Problems to be solved by the present disclosure>
The invention disclosed in Patent Document 1 can be said to be excellent in terms of improving the performance of the entire system by integrating the measurement results of a plurality of sensors. However, Patent Document 1 has a problem that it does not sufficiently consider the difference in performance and characteristics of individual sensors.

例えば特許文献1には、センサとして画像センサ(カメラ等)、距離センサ(レーザレーダ)等が挙げられている。特許文献1では、これらから得た情報を統合することによりシステム全体の性能向上を目指している。しかし、例えば距離センサの場合、その出力を処理して動体の位置を検出するためには短い時間しか必要としないのに対し、画像センサから得た画像から動体の属性等を示す情報を導き出すためには、比較的長い処理時間が必要な画像処理を行う必要がある。そのため、特許文献1に開示された発明による処理速度は、結局画像センサの出力に対する画像処理により律速されてしまい、動体の位置の計測精度が十分に得られないという問題がある。 For example, Patent Document 1 mentions an image sensor (camera, etc.), a distance sensor (laser radar), etc. as sensors. Patent Document 1 aims to improve the performance of the entire system by integrating the information obtained from these. However, in the case of a distance sensor, for example, it takes only a short time to process the output and detect the position of a moving object. Therefore, it is necessary to perform image processing that requires a relatively long processing time. Therefore, the processing speed according to the invention disclosed in Patent Document 1 is ultimately limited by the image processing for the output of the image sensor, and there is a problem that sufficient measurement accuracy of the position of the moving object cannot be obtained.

<本開示の効果>
本開示によれば、動体の管理をより精度高く行うことができる。
<Effects of the present disclosure>
According to the present disclosure, moving objects can be managed with higher accuracy.

<本発明の実施形態の概要>
以下、本発明の実施形態の概要を列記して説明する。
(1) 本実施形態に係る動体管理装置は、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含む。
<Overview of Embodiments of the Present Invention>
Hereinafter, the outline of the embodiments of the present invention will be listed and described.
(1) A moving body management apparatus according to the present embodiment includes: a first moving body detection unit that detects one or more first moving bodies in a first cycle based on a first signal received from the outside; a second moving body detection unit that detects one or more second moving bodies in a second period longer than the first period based on the received second signal; one first moving body; an integration processing unit that performs a process of integrating the one first moving body and the one second moving body when the second moving body is the same in a cycle shorter than the second cycle; Based on the result of processing by the integrated processing unit, a moving object that has a predetermined attribute and is located in a position that satisfies predetermined conditions for a certain vehicle is notified of information about the moving object that satisfies the predetermined conditions for the vehicle. including the part.

第2の動体検知部による詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知部による検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 A moving body determined to have a specific attribute with high reliability by the detailed attribute information by the second moving body detection unit can be accurately positioned and tracked using the detection result by the first moving body detection unit. As a result, moving objects can be managed with higher accuracy.

(2) 本実施形態に係る動体管理装置において、前記統合処理部は、1つの前記第1の動体の位置と、1つの前記第2の動体の位置が所定の条件を充足するときに、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定する位置判定部と、前記位置判定部によって同一と判定された前記1つの第1の動体及び前記1つの第2の動体を統合する統合部とを含んでもよい。 (2) In the moving body management apparatus according to the present embodiment, the integration processing unit, when one position of the first moving body and one position of the second moving body satisfy a predetermined condition, A position determination unit that determines whether one first moving body and one second moving body are the same, and the one first moving body and the one that are determined to be the same by the position determination unit. and an integration unit that integrates the second moving body.

統合処理部は、動体の位置に基づいて同一と判定された動体を統合する。位置計算は少ない計算量で行えるので、動体の数が多くなっても簡単な処理で高速に統合を実行できる。 The integration processing unit integrates moving objects determined to be identical based on the positions of the moving objects. Position calculation can be performed with a small amount of calculation, so even if the number of moving objects increases, simple processing can be performed at high speed.

(3) 本実施形態に係る動体管理装置において、前記位置判定部は、前記1つの第1の動体の前記位置と前記1つの第2の動体の前記位置に加えて、前記1つの第1の動体及び前記1つの第2の動体がそれぞれ前記第1の動体検知部及び前記第2の動体検知部により検知された時刻が所定の条件を充足するときに、前記1つの第1の動体と、前記1つの第2の動体とが一致するか否かを判定する位置・時間判定部を含んでもよい。 (3) In the moving body management apparatus according to the present embodiment, the position determination unit determines the position of the one first moving body and the position of the one second moving body, as well as the one first moving body. when the time at which the moving body and the one second moving body are detected by the first moving body detection unit and the second moving body detection unit, respectively, satisfy a predetermined condition, the one first moving body; A position/time determination unit may be included that determines whether or not the one second moving object matches.

位置に加えて時間まで含めて同一と判定された動体を統合するので、統合結果の信頼性が高くなる。検出された位置及び時間が近接している第1の動体と第2の動体とは同一のものである可能性が非常に高いためである。 Since the moving bodies determined to be identical in terms of time as well as position are integrated, the reliability of the integration result is increased. This is because there is a very high possibility that the first moving object and the second moving object whose detected positions and times are close to each other are the same.

(4) 本実施形態に係る動体管理装置において、前記統合部は、前記位置判定部により同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いて設定してもよい。 (4) In the moving body management apparatus according to the present embodiment, the integration unit combines the positions and attributes of the moving bodies determined to be identical by the position determining unit into the positions and attributes of the one first moving body and the one second moving body. may be set using the attribute of the moving object.

第1の動体検知部の出力と第2の動体検知部の出力との、他より優れた点を組合せるので、動体を統合した後の動体の追跡及び報知が的確に行える。 Since the output of the first moving body detection section and the output of the second moving body detection section are combined, the moving body can be accurately tracked and notified after the moving body is integrated.

(5) 本実施形態に係る動体管理装置において、前記統合部は、
前記第1の動体検知部によって検知される前記第1の動体の数と、前記第2の動体検知部によって検知される前記第2の動体の数とが一致するか否かを判定する動体数判定部と、前記動体数判定部による結果に基づいて、統合の対象となり得る前記第1の動体と前記第2の動体とのグループを決定するグループ決定部とを含み、前記位置判定部は、前記グループ決定部により決定されたグループに含まれる1つの前記第1の動体の位置と、前記グループに含まれる1つの前記第2の動体の位置が所定の条件を充足するか否かによって、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定するグループ内判定部を含んでもよい。
(5) In the moving body management apparatus according to this embodiment, the integration unit
Number of moving bodies for determining whether the number of the first moving bodies detected by the first moving body detection unit and the number of the second moving bodies detected by the second moving body detection unit match a determination unit; and a group determination unit that determines a group of the first moving object and the second moving object to be integrated based on the result of the moving object number determination unit, the position determination unit comprising: Depending on whether the position of one of the first moving bodies included in the group determined by the group determination unit and the position of one of the second moving bodies included in the group satisfy a predetermined condition, the An intra-group determination unit that determines whether one first moving object and one second moving object are the same may be included.

第1の動体検知部により検知された動体と第2の動体検知部により検知された動体の数とを比較し、その結果に応じて統合方法を変える。したがって、動体の検知結果に応じて最適な方法で動体の統合を行うことができる。 The number of moving bodies detected by the first moving body detection section and the number of moving bodies detected by the second moving body detection section are compared, and the integration method is changed according to the result. Therefore, it is possible to integrate the moving objects by an optimum method according to the detection result of the moving objects.

(6) 本実施形態に係る動体管理装置において、前記統合処理部はさらに、前記グループ内判定部が前記グループに含まれる前記1つの第1の動体が前記グループに含まれる前記1つの第2の動体と同一であると判定せず、又は、前記グループに含まれる前記1つの第2の動体が前記グループに含まれる前記1つの第1の動体と同一であると判定しない場合に、前記1つの第1の動体及び前記1つの第2の動体に関する情報のうちで値が設定されていないものに既定の値を設定することにより統合後の動体を生成する既定値設定部を含んでもよい。 (6) In the moving body management apparatus according to the present embodiment, the integration processing unit further includes the in-group determining unit for determining the one second moving body in which the one first moving body included in the group is included in the group. If it is not determined to be the same as the moving body, or if it is not determined that the one second moving body included in the group is the same as the one first moving body included in the group, the one A default value setting unit may be included for generating a moving body after integration by setting a default value to information about the first moving body and the one second moving body for which no value is set.

他の動体と組合されなかった動体でも統合後の解析結果に含まれるので、動体の見落としがなくなる。その結果、車両にとってより安全な動体管理を行うことができる。 Since even a moving body that is not combined with other moving bodies is included in the analysis results after integration, there is no chance of overlooking a moving body. As a result, safer moving object management can be performed for the vehicle.

(7) 本実施形態に係る動体管理装置において、前記報知部は、所定領域内の車両の位置を検知する車両位置検知部と、前記統合処理部の処理結果及び前記車両位置検知部の検知結果に基づいて、所定の属性を持つ動体を中心とする所定範囲内に位置する車両があるときに、前記車両に対して前記所定の条件を満たす動体に関する警告を報知する警告部とを含んでもよい。 (7) In the moving body management apparatus according to the present embodiment, the notification unit includes a vehicle position detection unit that detects the position of the vehicle within a predetermined area, a processing result of the integration processing unit, and a detection result of the vehicle position detection unit. and a warning unit that issues a warning regarding a moving body that satisfies the predetermined condition to the vehicle when there is a vehicle located within a predetermined range centered on the moving body having a predetermined attribute based on .

所定の属性を持つ動体から所定範囲内にある車両に、適時に注意すべき動体について的確な警告を報知できる。 A vehicle within a predetermined range from a moving body having a predetermined attribute can be appropriately warned of a moving body that requires attention.

(8) 本実施形態に係る動体管理システムは、(1)~(7)のいずれか1つに記載の動体管理装置と、前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む。 (8) A moving body management system according to the present embodiment includes the moving body management device according to any one of (1) to (7), and a ranging signal indicating a distance to a surrounding object in the first period. a first sensor that transmits as the first signal to the first moving body detection unit; and an image signal that indicates an image of an imaging range in the second period as the second signal that is transmitted to the second moving body detection unit. and a transmitting second sensor.

第1のセンサ及び第2のセンサの出力を動体管理装置に送信すると、動体管理装置の第2の動体検知部による詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、動体管理装置の第1の動体検知部による検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 When the outputs of the first sensor and the second sensor are transmitted to the moving body management device, the moving body determined to have the specific attribute with high reliability by the detailed attribute information by the second moving body detection unit of the moving body management device , the position can be determined and tracked with high accuracy using the detection result of the first moving body detection unit of the moving body management apparatus. As a result, moving objects can be managed with higher accuracy.

(9) 本実施形態に係る動体管理方法は、コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含む。 (9) A moving object management method according to the present embodiment includes a first moving object detection step in which a computer detects one or more first moving objects in a first period based on a first signal received from the outside; , a second moving body detection step in which the computer detects one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; When the first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed in a period shorter than the second period. an integration processing step that is executed periodically; and a computer, based on the processing result of the integration processing step, detects a moving object that has a predetermined attribute and is located in a position that satisfies predetermined conditions for a vehicle. and a reporting step of reporting information about the moving body that satisfies the predetermined condition.

この動体管理方法の第2の動体検知ステップによる詳細な属性情報により高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知ステップによる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 With respect to a moving body determined to have a specific attribute with high reliability by the detailed attribute information in the second moving body detection step of this moving body management method, the position is determined with high accuracy using the detection result of the first moving body detection step. can be traced. As a result, moving objects can be managed with higher accuracy.

(10) 本実施形態に係るコンピュータプログラムは、コンピュータに、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させる。 (10) The computer program according to the present embodiment provides a computer with a first moving object detection step of detecting one or more first moving objects in a first cycle based on a first signal received from the outside; a second moving body detection step of detecting one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside; one of the first moving bodies; an integration processing step of executing the processing of integrating the one first moving object and the one second moving object in a cycle shorter than the second cycle when the one second moving object is the same Then, based on the processing result of the integration processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies predetermined conditions for a certain vehicle, information regarding the moving object that satisfies the predetermined conditions for the certain vehicle is obtained. and a reporting step of reporting.

このコンピュータプログラムが第2の動体検知ステップを実行して得られる詳細な属性情報により、高い信頼性で特定の属性を持つと判定された動体について、第1の動体検知ステップを実行して得られる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 This computer program executes the first moving body detection step for a moving body determined to have a specific attribute with high reliability from detailed attribute information obtained by executing the second moving body detection step. The detection results can be used to accurately locate and track. As a result, moving objects can be managed with higher accuracy.

(11) 本実施形態に係る動体管理装置は、第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、前記プロセッサは、前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされている。 (11) The moving object management apparatus according to the present embodiment receives the ranging signal from a distance sensor that measures the distance to a surrounding object in a first period and transmits the ranging signal, and receives the ranging signal in a period longer than the first period. a receiving unit connected so as to be able to receive the image signal from an imaging device that transmits an image signal representing an image of an imaging range in a second cycle; and the receiving unit capable of reading information received by the receiving unit. a processor connected to a first moving object detection step of detecting one or more first moving objects based on the ranging signal; and one or more first moving objects based on the image signal. When the second moving body detection step of detecting two moving bodies, the one first moving body, and the one second moving body are the same, the one first moving body and the one second moving body are the same. an integration processing step of performing processing for integrating the two moving bodies in a cycle shorter than the second cycle; and a vehicle having a predetermined attribute and satisfying a predetermined condition for a certain vehicle based on the processing result of the integration processing step. and a notification step of notifying the certain vehicle of information regarding the moving body that satisfies the predetermined condition.

プロセッサが、画像信号に対して第2の動体検知ステップを実行して得られる詳細な属性情報により、高い信頼性で特定の属性を持つと判定された動体について、測距信号に対して第1の動体検知ステップを実行することにより得られる検知結果を用いて精度高く位置を定め追跡できる。その結果、動体の管理をより精度高く行うことができる。 A moving object determined to have a specific attribute with high reliability based on detailed attribute information obtained by the processor performing the second moving object detection step on the image signal is subjected to the first detection on the distance measurement signal. Using the detection result obtained by executing the moving object detection step of 1, the position can be determined and tracked with high accuracy. As a result, moving objects can be managed with higher accuracy.

<本発明の実施形態の詳細>
以下、図面を参照しつつ、本発明の実施形態の詳細を説明する。なお、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。
<Details of the embodiment of the present invention>
Hereinafter, details of embodiments of the present invention will be described with reference to the drawings. At least part of the embodiments described below may be combined arbitrarily. In the following description, identical parts and components are given identical reference numerals. Their names and functions are also the same. Therefore, these descriptions will not be repeated.

なお、以下の説明では、記載を簡略にするため、コンピュータプログラムを単に「プログラム」と呼ぶ。 In the description below, the computer program is simply referred to as a "program" for the sake of simplicity.

<第1の実施形態>
〈構成〉
図1を参照して、本発明の第1の実施形態に係る動体管理システム50は、後述する各種センサの出力を統合し、所定領域内の車両に適宜警告等を報知する処理を行うためのセンサ共有サーバ66と、所定の撮像範囲を撮像して画像信号をセンサ共有サーバ66に送信する複数のカメラ60と、周囲の所定範囲64内に存在する動体までの距離を測定し、測距信号をセンサ共有サーバ66に送信する複数のLiDAR(Laser Imaging Detection and Ranging)62とを含む。複数のカメラ60及びLiDAR62の一部は、街灯、ビル、信号柱等の社会基盤施設(インフラストラクチャー。以下「インフラ」と呼ぶ。)に取り付けられたインフラセンサであり、他の一部は車両に搭載された車両センサである。本実施形態では、センサ共有サーバ66は各インフラセンサの設置された位置を管理している。そのため、センサ共有サーバ66はLiDAR62からの測距信号及びカメラ60からの画像信号を処理することで各動体の位置を緯度と経度との組合せで計算できる。
<First embodiment>
<composition>
Referring to FIG. 1, a moving body management system 50 according to the first embodiment of the present invention integrates the outputs of various sensors, which will be described later. A sensor sharing server 66, a plurality of cameras 60 that capture a predetermined imaging range and transmit image signals to the sensor sharing server 66, and measures the distance to a moving object existing within a predetermined surrounding range 64, and outputs a distance measurement signal. to a sensor sharing server 66 . Some of the plurality of cameras 60 and LiDAR 62 are infrastructure sensors attached to social infrastructure facilities (infrastructure, hereinafter referred to as "infrastructure") such as streetlights, buildings, and signal poles, and other parts are attached to vehicles. It is an on-board vehicle sensor. In this embodiment, the sensor sharing server 66 manages the locations where each infrastructure sensor is installed. Therefore, the sensor sharing server 66 can calculate the position of each moving object by combining the latitude and longitude by processing the ranging signal from the LiDAR 62 and the image signal from the camera 60 .

カメラ60はセンサ共有サーバ66に対して画像信号を送信する。画像信号に含まれる情報は多く、人、車両等を広く検知できるだけではなく、人であればその位置及び姿勢、歩行中か否か、スマートフォンを持って歩いているか否か、何色の服を来ているか等の、各動体の属性を示す情報を得ることができる。しかし、これら属性情報を得るためにはセンサ共有サーバ66において画像信号に対する画像処理を行う必要があり、そのためには比較的長い時間が必要である。一方LiDAR62は、周囲を例えば指向性の高いレーザ光で周囲をスキャンし、動体により反射されたレーザ光を検知して動体までの距離を測定するものである。LiDAR62では対象物の属性としては限定されたものしかわからないが、センサ共有サーバ66において処理するための時間は短い。 Camera 60 transmits image signals to sensor sharing server 66 . Image signals contain a lot of information, and not only can people and vehicles be widely detected, but also the position and posture of people, whether they are walking, whether they are walking with a smartphone, what color of clothes they are wearing, etc. Information indicating the attributes of each moving object, such as whether it is coming, can be obtained. However, in order to obtain these attribute information, it is necessary to perform image processing on the image signal in the sensor sharing server 66, which requires a relatively long time. On the other hand, the LiDAR 62 scans the surroundings with, for example, highly directional laser light, detects the laser light reflected by the moving object, and measures the distance to the moving object. Although the LiDAR 62 can only know limited attributes of the object, the processing time in the sensor sharing server 66 is short.

動体管理システム50の目的は、複数のカメラ60のように対象物の細かい属性まで判別できるが処理には比較的長い時間を要するセンサ出力と、LiDAR62のように対象物の属性については限定的な情報しかわからないが、処理には短い時間しか必要としないセンサ出力との双方を用いて、例えばスマートフォンを見ながら歩く人68のように車両にとって危険な人物を発見したときには、その人物の移動を精度高く追跡し、必要に応じて車両に警告を送信することである。 The purpose of the moving object management system 50 is to provide sensor outputs that can discriminate even the detailed attributes of an object like a plurality of cameras 60 but require a relatively long time to process, and to limit the attributes of objects like the LiDAR 62. Only information is known, but only a short time is required for processing. By using both sensor outputs, when a person who is dangerous to the vehicle, such as a person 68 walking while looking at a smartphone, is found, the movement of the person can be accurately determined. High tracking and sending alerts to vehicles as needed.

図2を参照して、センサ共有サーバ66は、上記したように複数のインフラセンサ設備80(カメラ及びLiDARのいずれか又は双方を含む。)からの信号及び車両搭載センサ82(カメラ及びLiDARのいずれか又は双方を含む。)からの信号を受信するための受信処理部110を含む。インフラセンサ設備80の各々は、カメラ又はLiDARからなるインフラセンサ90と、インフラセンサ90の出力する信号をセンサ共有サーバ66の受信処理部110に対して送信するための通信装置92とを含む。車両搭載センサ82も同様、カメラ又はLiDARからなる車両センサ100と、車両センサ100の出力する信号をセンサ共有サーバ66の受信処理部110に向けて送信する通信装置102とを含む。 Referring to FIG. 2, sensor sharing server 66 receives signals from multiple infrastructure sensor installations 80 (including either or both cameras and LiDAR) and vehicle-mounted sensors 82 (including cameras and LiDAR) as described above. or both)). Each infrastructure sensor facility 80 includes an infrastructure sensor 90 composed of a camera or LiDAR, and a communication device 92 for transmitting a signal output by the infrastructure sensor 90 to the reception processing unit 110 of the sensor sharing server 66 . The vehicle-mounted sensor 82 similarly includes a vehicle sensor 100 composed of a camera or LiDAR, and a communication device 102 that transmits a signal output from the vehicle sensor 100 to the reception processing unit 110 of the sensor sharing server 66 .

センサ共有サーバ66はさらに、受信処理部110が受信した信号のうち、LiDAR62等からの測距信号を解析することにより各動体の位置を第1周期で決定し追跡する動体追跡部112と、動体追跡部112による解析結果113を記憶するための第1の解析結果記憶部114と、受信処理部110が受信した信号のうち、カメラからの画像信号に対して画像解析を行うことにより、画像中の車両、人等の動体の属性及び位置を第2周期で決定する属性検出部116とを含む。センサ共有サーバ66はさらに、属性検出部116の解析結果117を記憶するための第2の解析結果記憶部118と、解析結果記憶部114に記憶された解析結果113と解析結果記憶部118に記憶された解析結果117とを第2周期より短い周期で繰返し統合し、統合後の解析結果125を出力する統合処理部124と、統合処理部124が出力した統合後の解析結果125を蓄積して記憶する第3の解析結果記憶部126とを含む。統合処理部124が第2周期より短い周期で統合処理を行うため、場合によっては属性検出部116による解析が間に合わないことがある。本実施形態では、そうしたときには後述する統合処理によってデータの欠損がないようにして動体の統合を行う。 The sensor sharing server 66 further includes a moving object tracking unit 112 that determines and tracks the position of each moving object in the first cycle by analyzing ranging signals from the LiDAR 62 or the like among the signals received by the reception processing unit 110; Among the signals received by the first analysis result storage unit 114 for storing the analysis result 113 by the tracking unit 112 and the reception processing unit 110, by performing image analysis on the image signal from the camera, and an attribute detection unit 116 that determines the attributes and positions of moving objects such as vehicles and people in the second cycle. The sensor sharing server 66 further stores the second analysis result storage unit 118 for storing the analysis result 117 of the attribute detection unit 116, the analysis result 113 stored in the analysis result storage unit 114, and the analysis result storage unit 118. The integrated analysis result 117 is repeatedly integrated in a cycle shorter than the second cycle, and an integration processing unit 124 that outputs the integrated analysis result 125, and the integrated analysis result 125 output by the integration processing unit 124 are accumulated. and a third analysis result storage unit 126 for storing. Since the integration processing unit 124 performs integration processing in a cycle shorter than the second cycle, the analysis by the attribute detection unit 116 may not be in time in some cases. In this embodiment, in such a case, the moving objects are integrated so that there is no data loss by the integration processing described later.

解析結果113、117及び125はそれぞれ所定時間ごとに算出されるが、過去の一定時間に算出された解析結果もそれぞれ履歴として解析結果記憶部114、118及び126に蓄積され記憶されている。統合処理部124が統合処理を行うときに、解析結果記憶部126に蓄積されている過去の統合解析結果125の履歴を参照することがある。 The analysis results 113, 117 and 125 are calculated at predetermined intervals, respectively, and the analysis results calculated at predetermined intervals in the past are also accumulated and stored as histories in the analysis result storage units 114, 118 and 126, respectively. When the integration processing unit 124 performs integration processing, it may refer to the history of past integrated analysis results 125 accumulated in the analysis result storage unit 126 .

センサ共有サーバ66はさらに、受信処理部110が各車両から受信した信号に基づいて、管理対象の車両の位置、速度及び移動方向等からなる車両情報を得るための車両追跡部120と、車両追跡部120により解析された各車両の位置、速度及び移動方向等の車両情報121を記憶するための車両情報記憶部122とを含む。センサ共有サーバ66はさらに、統合後の解析結果125の動体情報と、車両情報121とを照合し、統合後の動体情報において危険な歩行者という属性を持つ歩行者の各々について、当該歩行者から所定範囲内に位置する車両に対して警告を報知する処理を行うための警告報知部128と、警告報知部128による警告報知のための信号を対象車両に送信するための送信処理部130とを含む。 The sensor sharing server 66 further includes a vehicle tracking unit 120 for obtaining vehicle information including the position, speed, moving direction, etc. of the vehicle to be managed based on the signal received from each vehicle by the reception processing unit 110; and a vehicle information storage unit 122 for storing vehicle information 121 such as the position, speed and moving direction of each vehicle analyzed by the unit 120 . The sensor sharing server 66 further collates the moving body information of the analysis result 125 after integration with the vehicle information 121, and for each pedestrian having the attribute of dangerous pedestrian in the moving body information after integration, A warning reporting unit 128 for performing processing to report a warning to vehicles positioned within a predetermined range, and a transmission processing unit 130 for transmitting a signal for warning reporting by the warning reporting unit 128 to the target vehicle. include.

図3を参照して、図2に示す動体追跡部112の解析結果113は、管理対象となっている動体ごとに、その識別番号である動体IDと、その動体が検知された時刻と、その動体のその時刻における位置と、その動体についてLiDAR62で検出された属性とを含む。LiDAR62からの出力により得られる情報にはこれ以外の情報もあるが、ここではそれらの図示を省略している。動体追跡部112は、この解析結果113を第1周期で更新する。 Referring to FIG. 3, analysis result 113 of moving body tracking unit 112 shown in FIG. It contains the position of the moving object at that time and the attributes detected by the LiDAR 62 for the moving object. Information obtained from the output from the LiDAR 62 includes information other than this, but the illustration thereof is omitted here. The moving object tracking unit 112 updates this analysis result 113 in the first cycle.

位置は、経度及び緯度により特定される。インフラセンサの場合には、センサが設置された位置が予め分かっているため、センサの設置された位置の経度及び緯度と、センサに対する動体の相対位置とにより動体の経度及び緯度が特定できる。車両センサの場合には、車両に搭載されているGPS(Global Positionig System)及びその補正手段による緯度・経度の測定結果を基準に用いることができる。 A location is specified by longitude and latitude. In the case of an infrastructure sensor, since the location where the sensor is installed is known in advance, the longitude and latitude of the location where the sensor is installed and the relative position of the moving object to the sensor can be used to specify the longitude and latitude of the moving object. In the case of a vehicle sensor, the measurement results of latitude and longitude obtained by a GPS (Global Positioning System) mounted on the vehicle and its correction means can be used as a reference.

LiDAR62は基本的に対象動体との距離を測定するためのものであるため、図3に示す属性はこの信号から判定できる限られた情報のみであり、例えば、人、一般車両、大型車両等の区別に限定されている。なお、動体IDは、センサ共有サーバ66が検出した動体を管理するためのものである。したがってセンサ共有サーバ66の管理する領域内で新たな動体が検知されるとその動体に新たなIDが割り当てられる。またセンサ共有サーバ66の管理する領域からある動体が離脱すると、本実施形態ではそのIDの割り当てが解消する。動体IDは以後の図4及び図5においても同様である。ただし、図3及び図4に示す動体IDは互いに無関係である。また図5に示す動体IDは処理の仕方により様々であるが、本実施形態では、後述するように図3又は図4に示すものとは無関係となる。 Since the LiDAR 62 is basically for measuring the distance to a target moving object, the attributes shown in FIG. 3 are only limited information that can be determined from this signal. distinction is limited. Note that the moving body ID is for managing the moving body detected by the sensor sharing server 66 . Therefore, when a new moving body is detected within the area managed by the sensor sharing server 66, a new ID is assigned to the moving body. Also, when a moving object leaves the area managed by the sensor sharing server 66, the ID assignment is canceled in this embodiment. The moving body ID is the same in the subsequent FIGS. 4 and 5 as well. However, the moving body IDs shown in FIGS. 3 and 4 are irrelevant to each other. Also, the moving body ID shown in FIG. 5 varies depending on the method of processing, but in this embodiment, as will be described later, it is irrelevant to those shown in FIG. 3 or 4 .

図4を参照して、図2に示す属性検出部116の解析結果117は、解析結果113と同様、管理対象となっている動体ごとに、その識別番号である動体IDと、その動体が検知された時刻と、その動体のその時刻における位置と、その動体についてカメラ60からの画像信号を画像処理することで検出された属性とを含む。カメラ60の出力する画像は所定の撮像範囲の画像を含む。したがって、適切な画像処理を行うことにより、各動体について解析結果113よりも詳細な属性、例えば人であれば、大人と子供の区別、着用している衣服の色彩、歩行しているか否か、等の属性を得ることができる。本実施形態で特に用いるのは、いわゆる「歩きスマホ」をしている人、予測できないような動きをする子供、小さい子供と大人との2人連れ、子供又は老人が運転している自転車等、車両の運転者にとって特に注意すべき動体であることを示す属性である。なお、カメラ60に対する画像解析の結果得られる情報はこれ以外にも存在するが、図4では図示を省略してある。また、解析結果117は、画像処理に時間がかかるため第1周期より長い第2周期で更新される。 Referring to FIG. 4, analysis result 117 of attribute detection unit 116 shown in FIG. , the position of the moving object at that time, and the attribute of the moving object detected by image processing the image signal from the camera 60 . The image output by camera 60 includes an image of a predetermined imaging range. Therefore, by performing appropriate image processing, more detailed attributes than the analysis result 113 can be obtained for each moving body. attributes can be obtained. Especially used in this embodiment are a person using a smartphone while walking, a child who moves in an unpredictable way, a small child and an adult, a bicycle driven by a child or an elderly person, etc. This is an attribute that indicates that the vehicle driver should pay special attention to the moving object. Although there are other pieces of information obtained as a result of image analysis of the camera 60, they are omitted in FIG. Also, the analysis result 117 is updated in a second cycle longer than the first cycle because image processing takes time.

図5を参照して、図2に示す統合処理部124の解析結果125の構成自体は、図3に示す解析結果113及び図4に示す解析結果117と同様で、動体IDと、その動体が検知された時刻と、その時刻のその動体の位置と、その動体の属性とを含む。解析結果125が解析結果113とも解析結果117とも異なるのは、解析結果113と解析結果117とを統合したことにより、各動体の位置はLiDAR62等により検知されたときの位置であるのに対し、各動体の属性はその動体についてカメラ60等により検出された詳細な属性となっている点である。解析結果113と解析結果117との統合を行う手法については後述する。解析結果125は、統合処理ごとに作成され、蓄積される。 5, the configuration itself of analysis result 125 of integration processing unit 124 shown in FIG. 2 is similar to analysis result 113 shown in FIG. 3 and analysis result 117 shown in FIG. It includes the time of detection, the position of the moving object at that time, and the attributes of the moving object. The analysis result 125 is different from the analysis result 113 and the analysis result 117 because the analysis result 113 and the analysis result 117 are integrated. The attribute of each moving object is a detailed attribute detected by the camera 60 or the like for that moving object. A method of integrating the analysis result 113 and the analysis result 117 will be described later. The analysis result 125 is created and accumulated for each integration process.

図6を参照して、図2に示す車両追跡部120が管理する車両情報121は、車両IDと、その車両が検知された時刻と、その車両が検知されたときのその車両の位置と、そのときのその車両の進行方向と、そのときの速度とを含む。車両の位置としては、車両に搭載されているGPS及びその補正手段による測定結果を用いる。これらの情報から、その車両がある一定時間の間に移動する距離と、そのときの位置とが推定できる。この車両IDも、図3、図4、及び図5に示す動体IDとは無関係であり、センサ共有サーバ66が管理する領域に車両が進入したことが検知されたときにその車両に割り当てられ、車両がその領域から離脱したときに割り当てが解消される。 6, vehicle information 121 managed by vehicle tracking unit 120 shown in FIG. 2 includes a vehicle ID, the time when the vehicle was detected, the position of the vehicle when the vehicle was detected, It includes the traveling direction of the vehicle at that time and the speed at that time. As the position of the vehicle, the measurement results obtained by the GPS mounted on the vehicle and its correction means are used. From these pieces of information, it is possible to estimate the distance traveled by the vehicle during a certain period of time and the position at that time. This vehicle ID is also unrelated to the moving body IDs shown in FIGS. The assignment is cleared when the vehicle leaves the area.

図7を参照して、図2に示す統合処理部124をコンピュータにより実現するためのプログラムは、NTP(Network Time Protocol)サーバ等から現時刻を取得するステップ150と、ステップ150において取得された時刻を基準として、解析を開始する時刻(解析開始時刻)を現時刻から所定時間前に設定するステップ152と、図3に示す解析結果113及び図4に示す解析結果117から、解析開始時刻から現時刻までの範囲に入る時刻情報を持つレコードを抽出するステップ154とを含む。ここで抽出された各レコードには、そのレコードが解析結果113から抽出されたものか、解析結果117から抽出されたものかを示す情報を付しておく。 Referring to FIG. 7, a program for realizing integrated processing unit 124 shown in FIG. , the time to start analysis (analysis start time) is set a predetermined time before the current time in step 152, and from the analysis result 113 shown in FIG. 3 and the analysis result 117 shown in FIG. and step 154 of extracting records with time information falling within the time range. Information indicating whether the record is extracted from the analysis result 113 or the analysis result 117 is attached to each record extracted here.

このプログラムはさらに、ステップ154において、抽出されたレコードの位置情報の差及び時間的な差(検知された時刻の相違)により計算される動体間の距離が所定のしきい値内である動体同士をグルーピングするステップ156と、ステップ156でグルーピングされた各グループについて、後述する処理160を実行するステップ158とを含む。なお、このしきい値は比較的小さな値であることが望ましい。また、ステップ156のグルーピングでは、他の全ての動体との距離がしきい値より大きい動体が生じ得る。そうした場合にはその動体のみを構成要素とするグループを形成する。なお、ここでいう距離とは、ユークリッド距離であるものとするが、これ以外にも数学的な距離の定義に適合するものであればどのようなものでも使用できる。例えば位置の場合には単にその絶対値の和を計算して距離としてもよい。また、ここでは時間と位置との双方をまとめて距離を計算した。このように距離を計算することで統合処理がより正確となる。しかしこれに限らず、それぞれについて距離を計算した後にその和を最終的な距離として用いても良い。 Further, in step 154, the program determines whether the distance between the moving objects is within a predetermined threshold, calculated from the difference in the positional information of the extracted records and the temporal difference (difference in detected time). and a step 158 of performing a process 160 described below for each group grouped in step 156 . It should be noted that this threshold is preferably a relatively small value. Also, the grouping of step 156 may result in a moving object whose distance from all other moving objects is greater than a threshold. In such a case, a group consisting of only the moving object is formed. Note that the distance here is the Euclidean distance, but any distance other than this can be used as long as it conforms to the mathematical definition of distance. For example, in the case of position, the sum of absolute values may simply be calculated as the distance. Also, here, both the time and the position are put together to calculate the distance. Calculating the distance in this way makes the integration process more accurate. However, the present invention is not limited to this, and after calculating distances for each of them, the sum thereof may be used as the final distance.

位置に加えて時間まで含めて同一と判定された動体を統合するので、統合結果の信頼性が高くなる。検出された位置及び時間が近接している動体は同一のものである可能性が非常に高いためである。 Since the moving bodies determined to be identical in terms of time as well as position are integrated, the reliability of the integration result is increased. This is because there is a very high possibility that moving objects whose detected positions and times are close to each other are the same.

さらに、位置情報のみを用いて距離を計算してもよい。この場合には動体の位置に基づいて同一と判定された動体を統合する。位置計算は少ない計算量で行えるので、動体の数が多くなっても簡単な処理で高速に統合を実行できる。 Furthermore, the distance may be calculated using only the location information. In this case, moving objects determined to be identical based on the positions of the moving objects are integrated. Position calculation can be performed with a small amount of calculation, so even if the number of moving objects increases, simple processing can be performed at high speed.

処理160は、処理対象のグループに対し、解析結果113と解析結果117とを統合する処理を実行するステップ170と、ステップ170の解析結果(統合解析結果)125を図2に示す解析結果記憶部126に出力するステップ172とを含む。 The process 160 includes a step 170 for executing a process of integrating the analysis result 113 and the analysis result 117 for the group to be processed, and storing the analysis result (integrated analysis result) 125 of step 170 in the analysis result storage unit shown in FIG. and step 172 outputting to 126 .

図8を参照して、図7に示すステップ170を実現するプログラムは、LiDAR62等で検知した動体の個数がカメラ60等で検知した動体の個数と等しいか否かを判定するステップ200と、ステップ200の判定が肯定ならLiDAR62により検知された動体とカメラ60により検知された動体のうち、最も近接する動体同士を統合し解析結果125として出力し処理を終了するステップ202とを含む。ここでの統合では、位置としてLiDAR62の検出結果を用い、属性としてはカメラ60の検出結果を用いる。位置情報についてはLiDAR62の方が短い間隔で精度高く検出できるのに対し、属性に関してはカメラ60からの検出結果の方が詳細だからである。このような組合せにより、統合結果はより的確に動体の位置及び属性を表現することになる。なお、このプログラムは、第2周期より短く第1周期以上の周期で実行される。第1周期で実行すれば動体の位置を精度高く追跡できて好ましい。この場合、属性検出部116による動体検知の更新が間に合わないことがあり得る。しかしその場合には、直前に属性検出部116により検知された動体の情報がそのまま用いられるため、統合処理に支障はない。 Referring to FIG. 8, the program for realizing step 170 shown in FIG. If the determination in 200 is affirmative, a step 202 is included in which the moving objects detected by the LiDAR 62 and the moving objects detected by the camera 60 that are closest to each other are integrated, output as the analysis result 125, and the process ends. In this integration, the detection result of the LiDAR 62 is used as the position, and the detection result of the camera 60 is used as the attribute. This is because the LiDAR 62 can detect position information with high precision at shorter intervals, while the detection results from the camera 60 are more detailed with respect to attributes. With such a combination, the integrated result expresses the position and attributes of the moving object more accurately. This program is executed in a cycle shorter than the second cycle and longer than the first cycle. If it is executed in the first cycle, the position of the moving object can be tracked with high accuracy, which is preferable. In this case, updating of moving object detection by the attribute detection unit 116 may not be in time. However, in this case, the information of the moving object detected immediately before by the attribute detection unit 116 is used as it is, so there is no problem with the integration processing.

動体追跡部112の出力と属性検出部116の出力との、他より優れた点を組合せるので、動体を統合した後の動体の追跡及び報知が的確に行える。 Since the output of the moving object tracking unit 112 and the output of the attribute detecting unit 116 are combined, the moving object can be accurately tracked and notified after the moving objects are integrated.

このプログラムはさらに、ステップ200の判定が否定のときに実行され、LiDAR62が検知した動体の個数がカメラ60の検知した動体の個数より多いか否かを判定するステップ204と、ステップ204の判定が肯定であるときに、カメラ60により検知された動体の各々に対し、LiDAR62により検知された動体のうちで最も近接する動体を統合して解析結果125として出力するステップ206と、ステップ206の後に実行され、LiDAR62が検知した動体の内で残った動体の各々について、1サイクル前の統合後の解析結果の中で、この動体の位置と最も近接しておりかつその値が所定しきい値より小さかった動体があるか否かを判定するステップ207と、ステップ207の判定が肯定であるときに、その動体を抽出し、その属性情報をLiDAR62により得られた情報の属性情報に代入することで両者の情報を統合して統合後の解析結果125として出力し処理を終了するステップ208と、ステップ207の判定が否定であるときに、LiDAR62から得られた動体の情報をそのまま使用して統合後の解析結果125として出力し処理を終了するステップ209とを含む。 This program is further executed when the determination of step 200 is negative, and step 204 determines whether the number of moving objects detected by the LiDAR 62 is greater than the number of moving objects detected by the camera 60, and the determination of step 204 is performed. If affirmative, step 206 of integrating the closest moving object among the moving objects detected by the LiDAR 62 to each of the moving objects detected by the camera 60 and outputting it as the analysis result 125; and for each moving object remaining among the moving objects detected by the LiDAR 62, among the analysis results after the integration one cycle before, the position of this moving object is closest and its value is smaller than a predetermined threshold value. step 207 for determining whether or not there is a moving object, and if the determination in step 207 is affirmative, the moving object is extracted and its attribute information is substituted for the attribute information of the information obtained by the LiDAR 62. is integrated and output as the analysis result 125 after integration, and the process is terminated. and a step 209 of outputting the analysis result 125 and terminating the process.

このプログラムはさらに、ステップ204の判定が否定のときに、LiDAR62により検知された動体の各々に、カメラ60により検知された動体の内で最も近接したものを統合して解析結果125として出力するステップ210と、ステップ210の後、カメラ60の検知した動体のうち残ったものを解析結果125として出力し処理を終了するステップ212とを含む。この際、この動体に関して画像から得られた情報は全て統合後の動体の情報に引き継がれる。ステップ208の処理により、例えばある動体に画像処理により得られた属性情報が付された場合、その後にその動体がカメラには捉えられなかったとしてもその属性情報が引き継がれる。したがって、カメラによる画像が得られずLiDAR62による情報しか得られないところでも、特定の属性を持つ動体を追跡することが可能になる。 Further, when the determination in step 204 is negative, the program further integrates each moving object detected by the LiDAR 62 with the moving object detected by the camera 60 that is closest to each other, and outputs the analysis result 125. 210, and after step 210, a step 212 for outputting the remaining moving objects detected by the camera 60 as the analysis result 125 and terminating the process. At this time, all the information about this moving object obtained from the image is carried over to the integrated moving object information. For example, when attribute information obtained by image processing is attached to a moving object by the processing of step 208, the attribute information is inherited even if the moving object is not captured by the camera thereafter. Therefore, it is possible to track a moving object having a specific attribute even where an image is not obtained by the camera and only information is obtained by the LiDAR 62 .

以上のように本実施形態では、LiDAR62により検知された動体の数とカメラ60により検知された動体の数とを比較し、その結果に応じて異なる処理をしている。こうすることで動体の検知結果に応じて最適な方法で動体の統合が行え、処理が簡単になり、かつオクルージョン等で動体の数が一時的に一致しなくなっても処理を正常に継続できる。 As described above, in this embodiment, the number of moving objects detected by the LiDAR 62 and the number of moving objects detected by the camera 60 are compared, and different processing is performed according to the result. By doing so, the moving objects can be integrated in an optimum method according to the detection result of the moving objects, the processing is simplified, and the processing can be continued normally even if the number of moving objects temporarily does not match due to occlusion or the like.

また、上記方法では他の動体と組合されなかった動体でも統合後の解析結果に含まれる。その結果、動体の見落としがなくなり、車両にとってより安全な動体管理を行うことができる。 In addition, in the above method, even moving objects that are not combined with other moving objects are included in the analysis results after integration. As a result, moving objects are not overlooked, and safer moving object management can be performed for vehicles.

図9を参照して、図2に示す警告報知部128を実現するプログラムは、統合した結果の中で属性として危険な歩行者等、車両にとって注意すべき属性を持つ動体を検索するステップ240と、ステップ240に続き、検索された各動体について、処理244を実行するステップ242とを含む。 Referring to FIG. 9, the program for realizing warning notification unit 128 shown in FIG. , followed by step 240, and step 242 of performing a process 244 for each object retrieved.

処理244は、図6に示す車両情報121の中で、その危険歩行者等の動体から所定距離内に位置し、かつその動体に接近中の車両を検索するステップ250と、ステップ250で検索された各車両に対して危険歩行者の接近を報知する警告を送信するステップ252とを含む。 Processing 244 includes step 250 of searching the vehicle information 121 shown in FIG. and Step 252 of sending a warning to each vehicle announcing the approach of a dangerous pedestrian.

<動作>
この第1の実施形態に係る動体管理システム50は以下のように動作する。図1を参照して、動体管理システム50の複数のカメラ60は、それぞれ所定の撮像範囲を撮像して画像信号をセンサ共有サーバ66に送信する。複数のLiDAR62は、それぞれ周囲の所定範囲内に存在する動体までの距離を測定し、測距信号をセンサ共有サーバ66に送信する。
<Action>
The moving body management system 50 according to the first embodiment operates as follows. Referring to FIG. 1 , a plurality of cameras 60 of moving body management system 50 each capture a predetermined imaging range and transmit image signals to sensor sharing server 66 . A plurality of LiDARs 62 each measure the distance to a moving object existing within a predetermined range, and transmits a distance measurement signal to the sensor sharing server 66 .

図2を参照して、センサ共有サーバ66の受信処理部110は、上記したように複数のインフラセンサ設備80からの信号及び車両搭載センサ82からの信号を受信し、LiDAR62からの信号を動体追跡部112に与え、カメラ60からの画像信号を属性検出部116に与える。一方、受信処理部110は、車両センサ100から受信した情報のうち、車両の位置、速度及び進行方向を示す情報を車両追跡部120に与える。車両追跡部120は受けた情報に基づいて図6に示す車両情報121を生成し、管理する。 Referring to FIG. 2, the reception processing unit 110 of the sensor sharing server 66 receives the signals from the plurality of infrastructure sensor facilities 80 and the signals from the vehicle-mounted sensors 82 as described above, and converts the signals from the LiDAR 62 into moving object tracking. 112 , and the image signal from the camera 60 is given to the attribute detection unit 116 . On the other hand, the reception processing unit 110 provides the vehicle tracking unit 120 with information indicating the position, speed and traveling direction of the vehicle among the information received from the vehicle sensor 100 . The vehicle tracking unit 120 generates and manages vehicle information 121 shown in FIG. 6 based on the received information.

センサ共有サーバ66の動体追跡部112は、受信処理部110から受けたLiDAR62等からの測距信号を解析することにより、各動体の位置を第1周期で決定する。この解析に要する時間は短く、第1周期で解析結果113が更新される。属性検出部116は、受信処理部110から受けた画像信号に対して画像解析を行うことにより、画像中の車両、人等の動体の属性及び位置を決定する。画像処理には時間がかかるため、属性検出部116による属性検出の周期は動体追跡部112による解析結果113の更新周期より長い第2周期となる。属性検出部116の解析結果117は解析結果記憶部118に格納される。 The moving object tracking unit 112 of the sensor sharing server 66 determines the position of each moving object in the first period by analyzing the ranging signal from the LiDAR 62 or the like received from the reception processing unit 110 . The time required for this analysis is short, and the analysis result 113 is updated in the first cycle. The attribute detection unit 116 performs image analysis on the image signal received from the reception processing unit 110 to determine attributes and positions of moving objects such as vehicles and people in the image. Since image processing takes time, the period of attribute detection by the attribute detection unit 116 is the second period longer than the update period of the analysis result 113 by the moving object tracking unit 112 . Analysis result 117 of attribute detection unit 116 is stored in analysis result storage unit 118 .

図7に示すプログラムは一定間隔で繰り返して起動される。ステップ150で現時刻を取得し、ステップ152で現時刻より所定時間前の解析開始時間を計算する。続いてステップ154で、図3に示す解析結果113及び図4に示す解析結果117から、解析開始時刻から現時刻までの範囲に入る時刻情報を持つレコードを抽出する。ここで抽出された各レコードには、そのレコードが解析結果113から抽出されたものか、解析結果117から抽出されたものかを示す情報を付しておく。 The program shown in FIG. 7 is repeatedly started at regular intervals. At step 150, the current time is acquired, and at step 152, an analysis start time a predetermined time before the current time is calculated. Subsequently, in step 154, records having time information within the range from the analysis start time to the current time are extracted from the analysis result 113 shown in FIG. 3 and the analysis result 117 shown in FIG. Information indicating whether the record is extracted from the analysis result 113 or the analysis result 117 is attached to each record extracted here.

このプログラムはさらに、ステップ156において、ステップ154で抽出されたレコードにより示される動体の間の距離がしきい値以内となるものをグルーピングする。続くステップ158で、グルーピングされた各グループについて、解析結果113と解析結果117とを統合する処理を実行する(ステップ170)。具体的には以下の処理が実行される。 The program further groups at step 156 the distances between the moving objects indicated by the records extracted at step 154 within a threshold. In subsequent step 158, a process of integrating the analysis results 113 and 117 is executed for each grouped group (step 170). Specifically, the following processes are executed.

図8を参照して、ステップ200において、LiDAR62等で検知した動体の個数がカメラ60等で検知した動体の個数と等しいか否かを判定する。ステップ200の判定が肯定であるときには、ステップ202においてLiDAR62により検知された動体とカメラ60により検知された動体のうち、最も近接する動体同士を統合した新たな動体の情報を統合後の解析結果125として出力する。この統合処理では、位置情報としてはLiDAR62からの解析結果113側の情報を用い、属性情報としてはカメラ60からの解析結果117側の情報を用いる。図示していないこれら以外の要素については、それぞれ予め定められた既定の情報を採用する。 Referring to FIG. 8, at step 200, it is determined whether or not the number of moving objects detected by the LiDAR 62 or the like is equal to the number of moving objects detected by the camera 60 or the like. When the determination in step 200 is affirmative, analysis result 125 after integration of new moving object information obtained by integrating the closest moving objects among the moving objects detected by the LiDAR 62 and the moving objects detected by the camera 60 in step 202 output as In this integration processing, the information on the analysis result 113 side from the LiDAR 62 is used as the position information, and the information on the analysis result 117 side from the camera 60 is used as the attribute information. Predetermined default information is adopted for elements other than these not shown.

ステップ200の判定が否定のときには、LiDAR62が検知した動体の個数がカメラ60の検知した動体の個数より多いか否かを判定するステップ204が実行される。ステップ204の判定が肯定であれば、ステップ206で、カメラ60により検知された動体の各々に対し、LiDAR62により検知された動体のうちで最も近接する動体を統合して出来た新たな動体の情報を統合後の解析結果125として出力する。ステップ206に続き、LiDAR62が検知した動体の内で残った動体について、前のサイクルの統合処理により検知された動体のうちで、その位置とこの動体の位置との差が最も小さく、かつその値がしきい値以下のものがあるか否かをステップ207で判定する。ステップ207の判定が肯定であれば、ステップ208でその動体の属性情報をLiDAR62により得られた情報に統合してできる新たな動体の情報を統合後の解析結果125として出力し処理を終了する。ステップ207の判定が否定であれば、LiDAR62により検知された動体のみの情報を用いて統合後の動体の情報を作成し、解析結果125として出力し処理を終了する。 When the determination in step 200 is negative, step 204 is executed to determine whether the number of moving objects detected by LiDAR 62 is greater than the number of moving objects detected by camera 60 . If the determination in step 204 is affirmative, in step 206, for each moving object detected by the camera 60, new moving object information obtained by integrating the closest moving object among the moving objects detected by the LiDAR 62. is output as an analysis result 125 after integration. Following step 206, for the moving object remaining among the moving objects detected by the LiDAR 62, the difference between the position of this moving object and the position of this moving object among the moving objects detected by the integration processing in the previous cycle is the smallest, and the value It is determined in step 207 whether there is any value below the threshold value. If the determination in step 207 is affirmative, in step 208 new moving object information obtained by integrating the attribute information of the moving object with the information obtained by the LiDAR 62 is output as the post-integration analysis result 125, and the process ends. If the determination in step 207 is negative, the information of the moving object after integration is created using only the information of the moving object detected by the LiDAR 62, output as the analysis result 125, and the process ends.

一方、ステップ204の判定が否定のときには、ステップ210で、LiDAR62により検知された動体の各々に、カメラ60により検知された動体の内で最も近接したものを統合して解析結果125として出力する。ステップ210の後、カメラ60の検知した動体のうちで残ったものを解析結果125として出力する。この際、この動体に関して画像から得られた情報は全て統合後の動体の情報に引き継がれる。ステップ208及びステップ212の双方において、組合せられる相手側から得られる筈だった情報については、相手が存在しないので、既定値(例えば空欄)に設定される。このように組合せる相手が存在していないときでも、一方のみからの情報で統合結果を作成することにより、一時的なオクルージョンが原因で、検出された動体数が不一致になっても動作を継続できる。 On the other hand, when the determination in step 204 is negative, in step 210, the closest moving object detected by the camera 60 to each moving object detected by the LiDAR 62 is integrated and output as the analysis result 125. After step 210 , the remaining moving objects detected by the camera 60 are output as the analysis result 125 . At this time, all the information about this moving object obtained from the image is carried over to the integrated moving object information. In both steps 208 and 212, the information that would have been obtained from the partner to be paired is set to a default value (eg, blank) because the partner does not exist. Even if there is no partner to combine with in this way, by creating an integrated result with information from only one side, operation can continue even if the number of detected moving objects does not match due to temporary occlusion. can.

以上のようにして、図7のステップ170に示す解析結果の統合処理が行われると、続くステップ172でステップ170の処理結果(統合解析結果)を図2に示す解析結果125として出力する。 After the analysis result integration process shown in step 170 of FIG. 7 is performed as described above, the process result (integrated analysis result) of step 170 is output as the analysis result 125 shown in FIG.

以上のステップ170および172からなる処理160が各グループに対して実行される。この結果、統合後の解析結果125(図2及び図5を参照)が生成される。 The process 160 consisting of steps 170 and 172 described above is executed for each group. As a result, an integrated analysis result 125 (see FIGS. 2 and 5) is generated.

以上の処理が所定時間ごとに繰り返されることにより、図5に示す解析結果125は、LiDAR62等の出力に対する解析結果とカメラ60からの画像信号に対する画像処理の結果得られる解析結果とが互いに統合された形で記録され管理される。この場合、位置情報にはLiDAR62からの出力に基づいて検出された情報が用いられる。したがって各動体の位置は第1の周期という比較的短い周期で更新され、各移動体の位置に関する情報の精度が高くなる。一方、カメラ60の出力する画像信号から得られる各動体の属性に関する情報は、解析結果125の属性に反映される。この属性の更新は第1の周期より低い第2の周期で行われるが、LiDAR62により検知される属性と比較してより詳細である。したがって、この統合後の解析結果125により、正確な属性にしたがって特定した動体の位置を、精度高く追跡することが可能になる。 By repeating the above process at predetermined time intervals, the analysis result 125 shown in FIG. are recorded and managed in a In this case, information detected based on the output from the LiDAR 62 is used as the position information. Therefore, the position of each moving body is updated in a relatively short period, that is, the first period, and the accuracy of information regarding the position of each moving body is increased. On the other hand, information about the attributes of each moving object obtained from the image signal output by the camera 60 is reflected in the attributes of the analysis result 125 . This attribute update occurs at a second frequency, which is lower than the first, but is more detailed compared to the attributes sensed by the LiDAR 62 . Therefore, the post-integration analysis result 125 enables highly accurate tracking of the position of the moving object identified according to the correct attribute.

この解析結果125を利用して車両に対する警告を報知するのが図2に示す警告報知部128である。図9を参照して、このプログラムは、ステップ240により、統合した結果の中で属性として危険な歩行者等、車両にとって注意すべき属性を持つ動体を検索する。続くステップ242で、その危険歩行者等の各々について、処理244を実行する。処理244のステップ250では、処理対象の危険歩行者等から所定距離内に位置し、かつその動体に接近中の車両を検索する。続くステップ252で、検索された各車両に対して危険歩行者の接近を報知する警告を図2に示す送信処理部130を介して送信する。 A warning notification unit 128 shown in FIG. 2 issues a warning to the vehicle using the analysis result 125 . Referring to FIG. 9, at step 240, this program searches moving objects having attributes such as dangerous pedestrians as attributes that should be taken into consideration by the vehicle, among the integrated results. In subsequent step 242, processing 244 is executed for each of the dangerous pedestrians. In step 250 of process 244, a vehicle located within a predetermined distance from the dangerous pedestrian or the like to be processed and approaching the moving object is searched. In the subsequent step 252, a warning for notifying the approach of a dangerous pedestrian is transmitted to each of the searched vehicles via the transmission processing unit 130 shown in FIG.

-本実施形態の効果-
図10を参照して、例えばセンサ共有サーバ66の管理する領域280を考える。領域280には複数のカメラ290、292、294、296、298、300及び302と、LiDAR304を初めとする複数のLiDARが存在する。ここでは説明を分かりやすくするため、LiDARとしてはLiDAR304のみが存在するものとする。
-Effects of this embodiment-
With reference to FIG. 10, consider an area 280 managed by the sensor sharing server 66, for example. Region 280 includes multiple cameras 290 , 292 , 294 , 296 , 298 , 300 and 302 and multiple LiDARs, including LiDAR 304 . For ease of explanation, it is assumed that only the LiDAR 304 exists as the LiDAR.

カメラ294とLiDAR304の検知範囲が重複する領域306内の位置308で例えばLiDAR304、カメラ294により歩行者が検知されたものとする。これらから得られる情報は統合され、図5に示す解析結果125のような形で管理される。カメラ294の出力を画像処理することにより、この歩行者が危険な歩行者であることが判定されたものとする。すると、この歩行者に対応する動体に関する統合情報には、危険歩行者であることを示す属性が付される。 Assume that a pedestrian is detected by, for example, the LiDAR 304 and the camera 294 at a position 308 within an area 306 where the detection ranges of the camera 294 and the LiDAR 304 overlap. Information obtained from these is integrated and managed in the form of an analysis result 125 shown in FIG. Assume that the pedestrian is determined to be a dangerous pedestrian by image processing the output of the camera 294 . Then, an attribute indicating that the pedestrian is a dangerous pedestrian is added to the integrated information regarding the moving body corresponding to the pedestrian.

一方、この歩行者が位置310を介して位置312に移動する間、カメラの画像情報が得られなかったものとする。この場合でも、統合情報に付された属性は引き継がれるため、LiDAR304からの情報しか得られなくてもこの特定の動体を追跡しながら、その動体が特定の属性を持つと判定できる。 On the other hand, it is assumed that the camera image information was not obtained while the pedestrian moved from position 310 to position 312 . Even in this case, the attributes attached to the integrated information are inherited, so even if only the information from the LiDAR 304 is obtained, it is possible to determine that the specific moving object has the specific attribute while tracking the specific moving object.

そこで例えば歩行者が位置314まで移動したとき、カメラ302による画像処理が間に合わなくても、この歩行者が危険な属性を持つことがセンサ共有サーバ66では判定できる。したがって、歩行者の位置314から所定の範囲322(例えば位置314を中心とする半径Rの範囲)内にいる車両又はこの範囲322に向けて移動中の車両324等に対して、注意すべき歩行者がいることを示す警告326を的確に送信できる。 Therefore, for example, when the pedestrian moves to the position 314, the sensor sharing server 66 can determine that the pedestrian has a dangerous attribute even if the image processing by the camera 302 is not completed in time. Therefore, a vehicle 324 or the like that is within a predetermined range 322 (for example, a radius R centered at the position 314) from the position 314 of the pedestrian, or a vehicle 324 that is moving toward this range 322, should be observed. A warning 326 indicating that someone is present can be accurately sent.

以上のように本実施形態によれば、短い周期で処理可能だが詳細な属性が得られないLiDAR62からの測距信号により検知した動体と、より長い周期でしか処理できないが、より詳細な属性を検出できるカメラ60等からの画像信号を画像処理することにより検知した動体とを統合する。この際、位置情報についてはLiDAR62から得られたものを用い、属性についてはカメラ60から得られたものを用いる。したがって、高い信頼性で動体の属性を検出すると同時に、その位置についての高い精度で検出できる。そのため、周囲の車両等に対して、注意すべき動体に関する的確な報知を行うことができる。その結果、本実施の形態に係るシステムは、一般的には車両の運転支援に利用でき、特にある領域内で注意を要する動体に関する注意喚起を行うことにより、車両の安全な運行管理に利用できる。 As described above, according to the present embodiment, a moving object detected by the distance measurement signal from the LiDAR 62, which can be processed in a short period but cannot obtain detailed attributes, and a moving object detected by the distance measurement signal from the LiDAR 62, which can be processed only in a longer period but more detailed attributes, can be obtained. Detectable image signals from the camera 60 or the like are subjected to image processing to integrate them with the detected moving object. At this time, the position information obtained from the LiDAR 62 is used, and the attribute information obtained from the camera 60 is used. Therefore, it is possible to detect the attributes of a moving object with high reliability and at the same time detect its position with high accuracy. Therefore, it is possible to accurately notify surrounding vehicles and the like of a moving object to be wary of. As a result, the system according to the present embodiment can be generally used for driving assistance of vehicles, and can be used for safe operation management of vehicles by calling attention to a moving object requiring attention in a certain area in particular. .

<第2の実施形態>
第1の実施形態では、LiDAR62から得られた動体と、カメラ60から得られた動体の位置との差が所定のしきい値以下の場合、その中で最も近接した動体同士を統合している。しかしこの場合、統合の仕方によっては統合の誤りが発生する可能性がある。
<Second embodiment>
In the first embodiment, when the difference between the position of the moving object obtained from the LiDAR 62 and the position of the moving object obtained from the camera 60 is equal to or less than a predetermined threshold value, the closest moving objects are integrated. . However, in this case, an integration error may occur depending on the method of integration.

図11を参照して、例えば、LiDAR62から得られた動体340及び342と、カメラ60から得られた動体344及び346とにおいて、動体340と動体344、動体340と動体346、動体342と動体344及び動体346のいずれにおいてもしきい値以下の場合には図11と図12の2つの組合せ方が生じる。図11の場合には、動体340と動体344が組み合わされ、動体342と動体346とが組み合わされている。一方図12の場合には、動体340と動体346とが組み合わされ、動体342と動体344とが組み合わされている。こうした場合の組合せ方としては、図11の方が妥当と考えられるが、動体342と動体344とを先に組合せた場合、図12のようになってしまうという可能性がある。本実施形態は、こうした可能性をできるだけ排除するためのものである。具体的には、本実施形態では、図11に示すような状態が発生した場合、可能な組合せの全てについて、組合せる対象となる動体の間の距離の自乗の和を計算し、その値が最も小さくなるような組合せを採用する。 With reference to FIG. 11 , for example, in moving objects 340 and 342 obtained from LiDAR 62 and moving objects 344 and 346 obtained from camera 60, moving objects 340 and 344, moving objects 340 and 346, moving objects 342 and 344 and moving object 346 are below the threshold, two combinations of FIGS. 11 and 12 occur. In the case of FIG. 11, moving bodies 340 and 344 are combined, and moving bodies 342 and 346 are combined. On the other hand, in the case of FIG. 12, moving bodies 340 and 346 are combined, and moving bodies 342 and 344 are combined. As a combination method in such a case, FIG. 11 is thought to be more appropriate, but if the moving object 342 and the moving object 344 are combined first, there is a possibility that the result will be as shown in FIG. This embodiment is intended to eliminate such possibilities as much as possible. Specifically, in this embodiment, when the state shown in FIG. 11 occurs, the sum of the squares of the distances between moving objects to be combined is calculated for all possible combinations, and the value is The combination that minimizes is adopted.

この第2の実施形態に係るセンサ共有サーバにおいては、図8に示すプログラムに替えて図13に示す制御構造を持つプログラムを採用する。図13を参照して、このプログラムは、LiDARにより検知された動体とカメラにより検知された動体との間の距離がしきい値以下となっているグループの各々に対して実行されるものである。このプログラムは、LiDARにより検知された動体とカメラにより検知された動体との可能な組合せを全て計算するステップ350と、ステップ350で計算された全ての組合せについて、LiDARにより検知された動体とカメラにより検知された動体とで組み合わされたものの間の距離の自乗の和を計算し、その値が最小となる組合せを採用するステップ352と、ステップ352で採用された組合せにしたがった動体の組合せを統合後の解析結果に出力するステップ354とを含む。この処理により、LiDARにより検知された動体とカメラにより検知された動体との間で組合せ可能なものは全て組合される。 The sensor sharing server according to the second embodiment employs a program having a control structure shown in FIG. 13 instead of the program shown in FIG. Referring to FIG. 13, this program is executed for each group in which the distance between the moving object detected by LiDAR and the moving object detected by the camera is equal to or less than a threshold. . This program calculates step 350 all possible combinations of moving objects detected by LiDAR and moving objects detected by the camera, and for all combinations calculated in step 350, moving objects detected by LiDAR and moving objects detected by the camera A step 352 of calculating the sum of the squares of the distances between the detected moving object and the combined object and adopting the combination with the smallest value, and integrating the combination of the moving objects according to the combination adopted in step 352. and output 354 to the results of later analysis. This process combines all possible combinations between the moving object detected by LiDAR and the moving object detected by the camera.

このプログラムはさらに、ステップ354の後、処理対象のグループのうちでLiDARにより検知された動体の個数とカメラにより検知された動体の個数が等しいか否かを判定し、判定が肯定ならこのプログラムの実行を終了するステップ356と、ステップ356の判定結果が否定の時に、LiDARにより検知された動体の個数がカメラにより検知された動体の個数より多いか否かを判定するステップ358とを含む。このプログラムはさらに、ステップ358の判定が肯定のときに実行され、LiDARの検知した動体の内で他の動体と組合されなかった動体の各々について、1ステップ前の統合結果の履歴内においてこの動体の位置と近接する位置にあり、かつその値が所定のしきい値以内の動体があるか否かを判定するステップ359と、ステップ359の判定が肯定であれば、その動体の属性情報をLiDARにより得られた情報の属性情報に代入して新たな動体の情報を統合後の解析結果に出力するステップ360とを含む。このプログラムはさらに、ステップ359の判定が否定であれば、LiDARの情報のみを用いて統合後の動体の情報を作成し統合後の解析結果に出力するステップ361と、ステップ358の判定が否定のときに、残ったカメラ検知動体の情報を用いて新たな統合後の情報を生成し統合後の解析結果に出力するステップ362とを含む。 After step 354, the program further determines whether the number of moving objects detected by the LiDAR and the number of moving objects detected by the camera in the group to be processed are equal. Step 356 of terminating execution, and Step 358 of determining whether the number of moving objects detected by the LiDAR is greater than the number of moving objects detected by the camera when the determination result of step 356 is negative. The program is further executed when the determination in step 358 is affirmative, and for each LiDAR-detected moving object that was not combined with other moving objects, this moving object Step 359 determines whether or not there is a moving object at a position close to the position of the LiDAR and whose value is within a predetermined threshold. and a step 360 of substituting the attribute information of the information obtained in step 360 and outputting new information of the moving object to the integrated analysis result. Further, if the determination in step 359 is negative, the program further includes step 361 for creating integrated moving object information using only LiDAR information and outputting it to the integrated analysis result, and step 358 for negative determination. sometimes including a step 362 of generating new post-integration information using the remaining camera-detected motion information and outputting the post-integration analysis results.

この第2の実施の形骸によれば、図11又は図12のようなケースが発生したときにも、LiDARの検知した動体とカメラの検知した動体との、もっとも好ましい(正しい可能性が高い)組合せを得ることができる。その結果、危険な属性が付与された動体について精度高く追跡できる。 According to the second embodiment, even when a case such as that shown in FIG. 11 or 12 occurs, the moving object detected by the LiDAR and the moving object detected by the camera are most preferable (highly likely to be correct). You can get a combination. As a result, the moving object to which the dangerous attribute is assigned can be tracked with high accuracy.

<第3の実施形態>
第1及び第2の実施形態では、LiDARによる検知動体とカメラによる検知動体とを統合する際に、インフラセンサからの情報だけでなく車両センサからの情報を用いている。こうすることにより、インフラセンサが存在しない領域でも移動中の動体を検知できる可能性が高い。しかし本発明はそのような実施形態には限定されない。インフラセンサからの情報のみを用いることも考えられる。第3の実施形態はそのような実施形態である。
<Third Embodiment>
In the first and second embodiments, the information from the vehicle sensor as well as the information from the infrastructure sensor is used when integrating the moving object detected by the LiDAR and the moving object detected by the camera. By doing so, there is a high possibility that moving objects can be detected even in areas where infrastructure sensors do not exist. However, the invention is not limited to such embodiments. It is also conceivable to use only information from infrastructure sensors. The third embodiment is such an embodiment.

図14を参照して、この第3の実施形態に係るセンサ共有サーバ380は、図2に示す受信処理部110に替えて、インフラセンサ設備80からの信号を受信し、インフラセンサ設備80の内のLiDARからの信号を動体追跡部112に、カメラからの画像信号を属性検出部116に、それぞれ与えるための第1の受信処理部390と、車両搭載センサ82からの信号を受信し、車両追跡部120に与えるための第2の受信処理部392とを含む。 Referring to FIG. 14, sensor shared server 380 according to the third embodiment receives a signal from infrastructure sensor equipment 80 instead of reception processing unit 110 shown in FIG. A first reception processing unit 390 for giving a signal from the LiDAR to the moving object tracking unit 112 and an image signal from the camera to the attribute detection unit 116, and a signal from the vehicle-mounted sensor 82, and vehicle tracking and a second reception processing section 392 for providing to the section 120 .

このセンサ共有サーバ380では、注意すべき動体の検知及びその追跡は、インフラセンサ設備80からの信号のみによって行われる。その他の点ではセンサ共有サーバ380はセンサ共有サーバ66と同じ構成を持ち、同じプログラムで動作する。したがってそれらについての詳細な説明は繰り返さない。 In this sensor sharing server 380 , detection and tracking of moving objects to be noticed are performed only by signals from the infrastructure sensor equipment 80 . In other respects, the sensor sharing server 380 has the same configuration as the sensor sharing server 66 and operates with the same programs. A detailed description thereof will therefore not be repeated.

この第3の実施形態によれば、予めインフラセンサの位置が分かっているため、例えば画像信号から固定的な背景を削除して画像処理の速度を上げたり、2つのカメラからの画像を用いて動体の位置及び属性の検知精度を高めたりすることができるという効果がある。また、重要な地点のみ、複数のセンサを配置しておくことで、ある領域については効率的に動体の検知を行うことができるという効果がある。ただしこの実施形態では、インフラセンサが設置されていない領域では動体の検知及び追跡が不可能になるという欠点もある。 According to this third embodiment, since the position of the infrastructure sensor is known in advance, for example, the fixed background is removed from the image signal to speed up the image processing, or the images from the two cameras are used to increase the image processing speed. There is an effect that it is possible to improve the detection accuracy of the position and attributes of a moving object. Also, by arranging a plurality of sensors only at important points, there is an effect that moving objects can be efficiently detected in a certain area. However, this embodiment also has the drawback that it is impossible to detect and track moving objects in areas where infrastructure sensors are not installed.

[コンピュータによる実現]
この発明の上記実施形態に係る動体管理システム50及びその構成要素は、プロセッサを含むコンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。図15はこのコンピュータシステム430の外観を示し、図16はコンピュータシステム430の内部構成を示す。
[Realization by computer]
The moving object management system 50 and its components according to the above-described embodiment of the present invention are realized by computer hardware including a processor, programs executed by the computer hardware, and data stored in the computer hardware. . 15 shows the appearance of this computer system 430, and FIG. 16 shows the internal configuration of the computer system 430. As shown in FIG.

図15を参照して、このコンピュータシステム430は、DVD(Digital Versatile Disc)ドライブ450を有するコンピュータ440と、キーボード446と、マウス448と、モニタ442とを含む。 Referring to FIG. 15, this computer system 430 includes a computer 440 having a DVD (Digital Versatile Disc) drive 450 , a keyboard 446 , a mouse 448 and a monitor 442 .

図16を参照して、コンピュータ440は、DVDドライブ450に加えて、CPU(Central Processing Unit:中央処理装置)456と、GPU(Graphic Processing Unit)457と、CPU456、GPU457、DVDドライブ450に接続されたバス466と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)458と、バス466に接続され、プログラム命令、システムプログラム、および作業データ等を記憶するランダムアクセスメモリ(RAM)460と、不揮発性メモリであるハードディスクドライブ(HDD)454を含む。コンピュータシステム430はさらに、他端末との通信を可能とするネットワーク468への接続を提供するネットワークインターフェイス(I/F)444を含む。 Referring to FIG. 16 , computer 440 is connected to DVD drive 450 , CPU (Central Processing Unit) 456 , GPU (Graphic Processing Unit) 457 , CPU 456 , GPU 457 and DVD drive 450 . a read only memory (ROM) 458 for storing boot-up programs and the like; a random access memory (RAM) 460 connected to the bus 466 for storing program instructions, system programs, working data and the like; hard disk drive (HDD) 454, which is a permanent memory. Computer system 430 also includes a network interface (I/F) 444 that provides connection to network 468 to allow communication with other terminals.

上記各実施形態では、図2に示す解析結果113、117及び125、並びに車両情報121等は、いずれもHDD454又はRAM460に記憶される。すなわち、HDD454、RAM460により解析結果記憶部114、118及び126、並びに車両情報記憶部122等が実現される。 In each embodiment described above, the analysis results 113, 117 and 125 shown in FIG. That is, the HDD 454 and the RAM 460 implement the analysis result storage units 114, 118 and 126, the vehicle information storage unit 122, and the like.

コンピュータシステム430に動体管理システム50及びその構成要素の機能を実現させるためのコンピュータプログラムは、DVDドライブ450に装着されるDVD462に記憶され、DVDドライブ450からHDD454に転送される。又は、プログラムはネットワーク468を通じてコンピュータ440に送信されHDD454に記憶されてもよい。プログラムは実行の際にRAM460にロードされる。DVD462から、又はネットワークを介して、直接にRAM460にプログラムをロードしてもよい。 A computer program for causing the computer system 430 to implement the functions of the moving object management system 50 and its components is stored on a DVD 462 mounted on the DVD drive 450 and transferred from the DVD drive 450 to the HDD 454 . Alternatively, the program may be transmitted to computer 440 over network 468 and stored on HDD 454 . Programs are loaded into RAM 460 during execution. The program may be loaded directly into RAM 460 from DVD 462 or via a network.

このプログラムは、コンピュータ440にこの実施形態の動体管理システム50のセンサ共有サーバ66及びセンサ共有サーバ380として動作を行なわせる複数の命令を含む。この動作を行なわせるのに必要な基本的機能のいくつかはコンピュータ440上で動作するオペレーティングシステム(OS)若しくはサードパーティのプログラム、又はコンピュータ440にインストールされる各種ツールキットのモジュールにより提供される。したがって、このプログラムはこの実施形態のシステムおよび方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又は「プログラミング・ツール・キット」を呼出すことにより、上記した動体管理システム50及びその構成要素としての動作を実行する命令のみを含んでいればよい。コンピュータシステム430の動作は周知であるので、ここでは繰返さない。なお、GPU457は並行処理を行うことが可能であり、多くの動体に関する統合処理を同時並行的に実行する際に有効に機能する。 This program includes a plurality of instructions that cause computer 440 to operate as sensor sharing server 66 and sensor sharing server 380 of moving body management system 50 of this embodiment. Some of the basic functions necessary to make this work are provided by an operating system (OS) or third party programs running on computer 440 or modules of various toolkits installed on computer 440 . Therefore, this program does not necessarily include all the functionality necessary to implement the system and method of this embodiment. This program controls the operation of the motion management system 50 and its components described above by invoking appropriate functions or "programming tool kits" of instructions in a controlled manner to achieve the desired results. should contain only instructions that execute The operation of computer system 430 is well known and will not be repeated here. Note that the GPU 457 is capable of performing parallel processing, and functions effectively when concurrently performing integration processing regarding many moving objects.

[変形例]
以上の説明は、以下に付記する特徴を含む。
[Modification]
The above description includes the features appended below.

付記1
1以上の第1の動体を検知可能な第1の動体検知部の直前の所定回数の検知結果を履歴として記憶する第1の履歴記憶部と、
1以上の第2の動体を検知可能な第2の動体検知部の直前の所定回数の検知結果を履歴として記憶する第2の履歴記憶部とをさらに含み、
統合処理部は、第1及び第2の動体検知部の最新の検知結果と、前記第1の履歴記憶部及び前記第2の履歴記憶部に記憶された直前のそれぞれ所定回数の検知結果とに基づいて1つの前記第1の動体と1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い第3周期で実行する時間を考慮した時間・空間的統合処理部を含む。
Appendix 1
a first history storage unit that stores, as a history, a predetermined number of detection results immediately before the first moving object detection unit capable of detecting one or more first moving objects;
a second history storage unit that stores as a history a predetermined number of detection results immediately before the second moving object detection unit capable of detecting one or more second moving objects;
The integrated processing unit integrates the latest detection results of the first and second moving body detection units with the previous predetermined number of detection results stored in the first history storage unit and the second history storage unit. When the one first moving body and the one second moving body are the same based on the above, the process of integrating the one first moving body and the one second moving body is performed by the second moving body. It includes a temporal/spatial integration processing unit that considers the time to be executed in a third period shorter than the period.

時間・空間的統合処理部により、同一の動体の検知がより正確に行える。第1の動体検知部が検知した動体と、第2の動体検知部が検知した動体とが空間的に近傍に存在しているだけでなく、両者が検出された時刻が近接している場合には、両者が同一の動体である可能性が非常に高いためである。また、空間的に複数の動体が検出されたときには、それらの時間的な軌跡が分かれば、最新の検出時に2つの動体を区別できる可能性が高くなるためである。 The same moving object can be detected more accurately by the temporal/spatial integration processing unit. When the moving object detected by the first moving object detection unit and the moving object detected by the second moving object detection unit are not only spatially adjacent to each other, but also when the times at which the two are detected are close to each other, This is because there is a very high possibility that both are the same moving object. Also, when a plurality of moving bodies are spatially detected, if their temporal trajectories are known, the possibility of distinguishing two moving bodies at the time of the latest detection increases.

上記実施形態では、センサとしてLiDAR及びカメラの2種類のみを用いている。しかし本発明はそのような実施形態には限定されない。測距センサとしては赤外線によるものを用いても良い。又、カメラをステレオカメラにすれば、カメラによる位置検知の精度をより高くできる。 In the above embodiment, only two types of sensors, LiDAR and camera, are used. However, the invention is not limited to such embodiments. An infrared sensor may be used as the distance measuring sensor. Also, if the camera is a stereo camera, the accuracy of position detection by the camera can be increased.

今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above description, and is intended to include all changes within the meaning and scope equivalent to the scope of the claims.

50 動体管理システム
60、290、292、294、296、298、300、302 カメラ
62、304 LiDAR
66、380 センサ共有サーバ
80 インフラセンサ設備
82 車両搭載センサ
90 インフラセンサ
92、102 通信装置
100 車両センサ
110、390、392 受信処理部
112 動体追跡部
113、117、125 解析結果
114、118、126 解析結果記憶部
116 属性検出部
120 車両追跡部
121 車両情報
122 車両情報記憶部
124、394 統合処理部
128 警告報知部
130 送信処理部
150、152、154、156、158、170、172、200、202、204、206、207、208、209、210、212、240、242、250、252、350、352、354、356、358、359、360、361、362 ステップ
160、244 処理
306 領域
308、310、312、314 位置
322 所定の範囲
324 車両
326 警告
340、342、344、346 動体
430 コンピュータシステム
440 コンピュータ
442 モニタ
444 ネットワークI/F
446 キーボード
448 マウス
450 DVDドライブ
454 ハードディスク
456 CPU
457 GPU
458 ROM
460 RAM
462 DVD
466 バス
468 ネットワーク
50 moving object management system 60, 290, 292, 294, 296, 298, 300, 302 camera 62, 304 LiDAR
66, 380 sensor sharing server 80 infrastructure sensor equipment 82 vehicle-mounted sensor 90 infrastructure sensors 92, 102 communication device 100 vehicle sensors 110, 390, 392 reception processing unit 112 moving body tracking units 113, 117, 125 analysis results 114, 118, 126 analysis Result storage unit 116 Attribute detection unit 120 Vehicle tracking unit 121 Vehicle information 122 Vehicle information storage units 124, 394 Integration processing unit 128 Warning notification unit 130 Transmission processing units 150, 152, 154, 156, 158, 170, 172, 200, 202 , 204, 206, 207, 208, 209, 210, 212, 240, 242, 250, 252, 350, 352, 354, 356, 358, 359, 360, 361, 362 Steps 160, 244 Processing 306 Areas 308, 310 , 312, 314 Position 322 Predetermined Range 324 Vehicle 326 Warning 340, 342, 344, 346 Moving Body 430 Computer System 440 Computer 442 Monitor 444 Network I/F
446 keyboard 448 mouse 450 DVD drive 454 hard disk 456 CPU
457 GPUs
458 ROMs
460 RAM
462 DVDs
466 bus 468 network

Claims (10)

外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知部と、
外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知部と、
1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理部と、
前記統合処理部の処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知部とを含み、
前記統合処理部は、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する、動体管理装置。
a first moving body detection unit that detects one or more first moving bodies in a first cycle based on a first signal received from the outside;
a second moving body detection unit that detects one or more second moving bodies in a second cycle longer than the first cycle based on a second signal received from the outside;
When the one first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed from the second period an integration processing unit that executes in a short period;
Based on the processing result of the integrated processing unit, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a certain vehicle, information regarding the moving object that satisfies the predetermined condition is notified to the certain vehicle. including a notification unit,
The moving body management apparatus, wherein the integration processing unit sets the positions and attributes of the moving bodies determined to be the same using the position of the one first moving body and the attribute of the one second moving body.
前記統合処理部は、
前記1つの第1の動体の位置と、前記1つの第2の動体の位置が所定の条件を充足するか否かにより、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定する位置判定部と、
前記位置判定部によって同一と判定された前記1つの第1の動体及び前記1つの第2の動体の位置及び属性、それぞれ前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いて設定することにより統合する統合部とを含む、請求項1に記載の動体管理装置。
The integration processing unit
Depending on whether the position of the one first moving body and the position of the one second moving body satisfy a predetermined condition, the one first moving body and the one second moving body A position determination unit that determines whether or not the is the same;
The positions and attributes of the one first moving body and the one second moving body determined to be identical by the position determining unit are respectively determined as the positions of the one first moving body and the one second moving body. 2. The moving body management apparatus according to claim 1, further comprising an integration unit that integrates by setting using attributes .
前記位置判定部は、前記1つの第1の動体の前記位置と前記1つの第2の動体の前記位置に加えて、前記1つの第1の動体及び前記1つの第2の動体がそれぞれ前記第1の動体検知部及び前記第2の動体検知部により検知された時刻が所定の条件を充足するか否かにより、前記1つの第1の動体と、前記1つの第2の動体とが一致するか否かを判定する位置・時間判定部を含む、請求項2に記載の動体管理装置。 In addition to the position of the one first moving body and the position of the one second moving body, the position determination unit determines the position of the one first moving body and the one second moving body. The one first moving body and the one second moving body match depending on whether the time detected by the one moving body detection unit and the second moving body detection unit satisfies a predetermined condition. 3. The moving body management apparatus according to claim 2, further comprising a position/time determination unit that determines whether or not. 前記位置判定部は、
前記第1の動体検知部によって検知される前記第1の動体の数と、前記第2の動体検知部によって検知される前記第2の動体の数とが一致するか否かを判定する動体数判定部と、
前記動体数判定部による結果に基づいて、統合の対象となり得る前記第1の動体と前記第2の動体とのグループを決定するグループ決定部と、
記グループ決定部により決定されたグループに含まれる1つの前記第1の動体の位置と、前記グループに含まれる1つの前記第2の動体の位置が所定の条件を充足するか否かによって、前記1つの第1の動体と、前記1つの第2の動体とが同一か否かを判定するグループ内判定部を含む、請求項2に記載の動体管理装置。
The position determination unit
Number of moving bodies for determining whether the number of the first moving bodies detected by the first moving body detection unit and the number of the second moving bodies detected by the second moving body detection unit match a determination unit;
a group determination unit that determines a group of the first moving object and the second moving object that can be integrated based on the result of the moving object number determination unit ;
Depending on whether the position of one of the first moving bodies included in the group determined by the group determination unit and the position of one of the second moving bodies included in the group satisfy a predetermined condition, 3. The moving body management apparatus according to claim 2 , further comprising an intra-group determination unit that determines whether said one first moving body and said one second moving body are the same.
前記統合処理部はさらに、前記グループ内判定部が前記グループに含まれる前記1つの第1の動体が前記グループに含まれる前記1つの第2の動体と同一であると判定せず、又は、前記グループに含まれる前記1つの第2の動体が前記グループに含まれる前記1つの第1の動体と同一であると判定しない場合に、前記1つの第1の動体及び前記1つの第2の動体に関する情報のうちで値が設定されていないものに既定の値を設定することにより統合後の動体を生成する既定値設定部を含む、請求項に記載の動体管理装置。 The integration processing unit further determines that the intra-group determination unit does not determine that the one first moving object included in the group is the same as the one second moving object included in the group, or If the one second moving body included in the group is not determined to be the same as the one first moving body included in the group, the one first moving body and the one second moving body 5. The moving body managing apparatus according to claim 4 , further comprising a default value setting unit for generating a moving body after integration by setting a default value to information for which no value is set. 前記報知部は、
所定領域内の車両の位置を検知する車両位置検知部と、
前記統合処理部の処理結果及び前記車両位置検知部の検知結果に基づいて、所定の属性を持つ動体を中心とする所定範囲内に位置する車両があるときに、前記車両に対して前記所定の条件を満たす動体に関する警告を報知する警告部とを含む、請求項1から請求項のいずれか1項に記載の動体管理装置。
The notification unit is
a vehicle position detection unit that detects the position of the vehicle within a predetermined area;
Based on the processing result of the integrated processing unit and the detection result of the vehicle position detection unit, when there is a vehicle located within a predetermined range centered on a moving object having a predetermined attribute, the vehicle is subjected to the predetermined 6. The moving body management apparatus according to any one of claims 1 to 5 , further comprising a warning unit that issues a warning regarding a moving body that satisfies a condition.
請求項1から請求項のいずれか1項に記載の動体管理装置と、
前記第1周期で周囲の物体までの距離を示す測距信号を前記第1の動体検知部に前記第1の信号として送信する第1のセンサと、
前記第2周期で撮像範囲の画像を示す画像信号を前記第2の信号として前記第2の動体検知部に送信する第2のセンサとを含む動体管理システム。
a moving body management device according to any one of claims 1 to 6 ;
a first sensor that transmits, as the first signal, a ranging signal indicating a distance to a surrounding object in the first cycle to the first moving body detection unit;
and a second sensor that transmits an image signal representing an image of an imaging range in the second period as the second signal to the second moving body detection unit.
コンピュータが、外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、
コンピュータが、外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、
コンピュータが、1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、
コンピュータが、前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを含み、
前記統合処理ステップにおいては、コンピュータが、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する、動体管理方法。
A first moving body detection step in which the computer detects one or more first moving bodies in a first cycle based on a first signal received from the outside;
A second moving body detection step in which the computer detects one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside;
The computer performs the process of integrating the one first moving body and the one second moving body when the one first moving body and the one second moving body are the same. an integration processing step executed in a cycle shorter than the second cycle;
Based on the processing result of the integrated processing step, the computer provides information about a moving object that has a predetermined attribute and is located at a position that satisfies predetermined conditions for a certain vehicle and that satisfies the predetermined conditions for the certain vehicle. and a notification step of notifying
In the integration processing step, the computer sets the positions and attributes of the moving bodies determined to be the same using the position and attributes of the one first moving body and the attributes of the one second moving body, respectively. Method.
コンピュータに、
外部から受信した第1の信号に基づいて、1つ以上の第1の動体を第1周期で検知する第1の動体検知ステップと、
外部から受信した第2の信号に基づいて、1つ以上の第2の動体を前記第1周期より長い第2周期で検知する第2の動体検知ステップと、
1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を、前記第2周期より短い周期で実行する統合処理ステップと、
前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップと、を実行させるためのコンピュータプログラムであって、
前記統合処理ステップにおいては、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定する処理をコンピュータに実行させる、コンピュータプログラム
to the computer,
a first moving body detection step of detecting one or more first moving bodies in a first period based on a first signal received from outside;
a second moving body detection step of detecting one or more second moving bodies in a second period longer than the first period based on a second signal received from the outside;
When the one first moving body and the one second moving body are the same, the process of integrating the one first moving body and the one second moving body is performed in the second cycle an integration processing step that is executed in a shorter period;
Based on the processing result of the integrated processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a certain vehicle, information regarding the moving object that satisfies the predetermined condition is notified to the certain vehicle. A computer program for executing a notification step ,
In the integration processing step, the computer executes a process of setting the positions and attributes of the moving bodies determined to be the same using the position of the one first moving body and the attribute of the one second moving body. , a computer program .
第1周期で周囲の物体までの距離を測定して測距信号を送信する距離センサから前記測距信号を受信し、前記第1周期より長い第2周期で撮像範囲の画像を表す画像信号を送信する撮像装置から前記画像信号を受信することが可能なように接続された受信部と、
前記受信部が受信した情報を読取り可能に前記受信部に接続されたプロセッサとを含み、
前記プロセッサは、
前記測距信号に基づいて1つ以上の第1の動体を検知する第1の動体検知ステップと、
前記画像信号に基づいて1つ以上の第2の動体を検知する第2の動体検知ステップと、
1つの前記第1の動体と、1つの前記第2の動体とが同一であるときに、前記1つの第1の動体と前記1つの第2の動体とを統合する処理を前記第2周期より短い周期で実行する統合処理ステップと、
前記統合処理ステップの処理結果に基づいて、所定の属性を持ち、かつある車両にとって所定の条件を満たす位置にある動体について、前記ある車両に対して前記所定の条件を満たす動体に関する情報を報知する報知ステップとを実行するようにプログラムされており、
前記プロセッサは、前記統合処理ステップにおいては、同一と判定された動体の位置及び属性を、前記1つの第1の動体の位置及び前記1つの第2の動体の属性を用いてそれぞれ設定するようにプログラムされている、動体管理装置。
receiving the distance measurement signal from a distance sensor that measures the distance to a surrounding object in a first period and transmits the distance measurement signal, and generates an image signal representing an image of the imaging range in a second period longer than the first period a receiving unit connected so as to be able to receive the image signal from the transmitting imaging device;
a processor operably coupled to the receiver to read information received by the receiver;
The processor
a first moving body detection step of detecting one or more first moving bodies based on the ranging signal;
a second moving body detection step of detecting one or more second moving bodies based on the image signal;
When one of the first moving bodies and one of the second moving bodies are the same, the process of integrating the one of the first moving bodies and the one of the second moving bodies from the second period. an integration processing step executed in a short period;
Based on the processing result of the integrated processing step, with respect to a moving object that has a predetermined attribute and is located at a position that satisfies a predetermined condition for a certain vehicle, information regarding the moving object that satisfies the predetermined condition is notified to the certain vehicle. is programmed to perform a notification step and
In the integration processing step, the processor sets the positions and attributes of moving bodies determined to be identical using the position and attributes of the one first moving body and the one attribute of the second moving body, respectively. A programmed motion management device.
JP2020510659A 2018-03-29 2019-03-15 Moving body management device, moving body management system, moving body management method, and computer program Active JP7294323B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018063865 2018-03-29
JP2018063865 2018-03-29
PCT/JP2019/010894 WO2019188429A1 (en) 2018-03-29 2019-03-15 Moving body management device, moving body management system, moving body management method, and computer program

Publications (2)

Publication Number Publication Date
JPWO2019188429A1 JPWO2019188429A1 (en) 2021-04-15
JP7294323B2 true JP7294323B2 (en) 2023-06-20

Family

ID=68058827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020510659A Active JP7294323B2 (en) 2018-03-29 2019-03-15 Moving body management device, moving body management system, moving body management method, and computer program

Country Status (2)

Country Link
JP (1) JP7294323B2 (en)
WO (1) WO2019188429A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022034571A (en) * 2018-11-26 2022-03-04 住友電気工業株式会社 Traffic information processing server, traffic information processing method, and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (en) 2002-07-04 2004-02-05 Nissan Motor Co Ltd External recognition device for vehicle
JP2007187618A (en) 2006-01-16 2007-07-26 Omron Corp Object identifying device
JP2009110172A (en) 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device
JP2015219721A (en) 2014-05-16 2015-12-07 本田技研工業株式会社 Operation support system and object recognition device
JP2016018413A (en) 2014-07-09 2016-02-01 富士通テン株式会社 Vehicle device, vehicle control system, and vehicle control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (en) 2002-07-04 2004-02-05 Nissan Motor Co Ltd External recognition device for vehicle
JP2007187618A (en) 2006-01-16 2007-07-26 Omron Corp Object identifying device
JP2009110172A (en) 2007-10-29 2009-05-21 Fuji Heavy Ind Ltd Object detection device
JP2015219721A (en) 2014-05-16 2015-12-07 本田技研工業株式会社 Operation support system and object recognition device
JP2016018413A (en) 2014-07-09 2016-02-01 富士通テン株式会社 Vehicle device, vehicle control system, and vehicle control method

Also Published As

Publication number Publication date
JPWO2019188429A1 (en) 2021-04-15
WO2019188429A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
CN110268413B (en) Low level sensor fusion
US10520904B2 (en) Event classification and object tracking
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
US10077054B2 (en) Tracking objects within a dynamic environment for improved localization
JP6230673B2 (en) Traffic signal map creation and detection
KR102338370B1 (en) Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same
US20180068206A1 (en) Object recognition and classification using multiple sensor modalities
JP5886439B2 (en) Method and / or apparatus for geofence management
JP2020115322A (en) System and method for vehicle position estimation
US11408739B2 (en) Location correction utilizing vehicle communication networks
EP4105908A1 (en) Method, apparatus, server, and computer program for collision accident prevention
CN113959457B (en) Positioning method and device for automatic driving vehicle, vehicle and medium
US10109191B2 (en) Method of quickly detecting road distress
CN114274972A (en) Scene recognition in an autonomous driving environment
US20180107946A1 (en) Alert output apparatus
JP7167696B2 (en) Related information creation device, traffic control system, related information creation method, and computer program
JP7294323B2 (en) Moving body management device, moving body management system, moving body management method, and computer program
JP2016153832A (en) Map data storage device, control method, program, and storage medium
US20220319322A1 (en) Drive assist apparatus and drive assist method
JP2019158762A (en) Device, method, and program for detecting abnormalities
JP7069944B2 (en) Environment detectors, environment detection systems, environment detection methods, and computer programs
US20190188599A1 (en) Information processing method, information processing apparatus, and program
JP2019106166A (en) Information processing method, information processing apparatus and program
CN113721235B (en) Object state determining method, device, electronic equipment and storage medium
US20230267718A1 (en) Systems and methods for training event prediction models for camera-based warning systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7294323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150